Saltar al contenido principal

Gemini + Manglai

Opción 1: Cursor con modelo Gemini

Si usas Cursor con el modelo Gemini, configura el MCP de Manglai en .cursor/mcp.json:
{
  "mcpServers": {
    "manglai": {
      "command": "npx",
      "args": [
        "mcp-remote",
        "https://mcp.manglai.io/sse",
        "--header",
        "Authorization:Bearer ${MANGLAI_TOKEN}"
      ],
      "env": {
        "MANGLAI_TOKEN": "tu_token_aqui"
      }
    }
  }
}
Cursor gestionará las llamadas MCP independientemente del modelo subyacente.

Opción 2: Gemini API (programático)

Si usas la API de Gemini directamente, puedes integrar Manglai construyendo un backend que combine ambas APIs:
import { GoogleGenerativeAI } from '@google/generative-ai';

const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY);
const model = genAI.getGenerativeModel({ model: 'gemini-1.5-pro' });

// Cuando el usuario pregunte por emisiones, llama a Manglai:
const manglaiResponse = await fetch(
  'https://www.manglai.io/api/v1/emissions/dashboard?companyId=UUID&startDate=2024-01-01&endDate=2024-12-31',
  { headers: { Authorization: `Bearer ${process.env.MANGLAI_TOKEN}` } }
);
const data = await manglaiResponse.json();

const result = await model.generateContent(
  `Datos de emisiones de Manglai: ${JSON.stringify(data)}. Analiza y resume los principales insights.`
);

Opción 3: Vertex AI

En entornos empresariales con Vertex AI, puedes usar la API REST de Manglai como fuente de datos externa para grounding o function calling.

Generar token

Obtén tu token de Manglai