Cómo solucionar el error "User location is not supported" en Gemini API (Migración a Vertex AI)

Soporte Donweb
Soporte Donweb
  • Actualización

Si tu integración de Gemini falla devolviendo un Error 400, es probable que estés enfrentando restricciones regionales de la API pública de Google AI Studio.

Este error es común al realizar peticiones desde Cloud Servers o Servidores Dedicados ubicados en regiones con limitaciones para la API gratuita/estándar.

El error típico se ve así:

{
  "error": {
    "code": 400,
    "message": "User location is not supported for the API use.",
    "status": "FAILED_PRECONDITION"
  }
}

La Solución: Migrar a Google Vertex AI en 5 minutos

La forma definitiva y profesional de solucionar esto es utilizar la API de Vertex AI a través de Google Cloud Platform (GCP). A diferencia de la API estándar, Vertex AI ofrece mayor disponibilidad regional y control empresarial.

Requisitos previos

Nota: Necesitas una cuenta de Google con acceso a Google Cloud Platform. Asegúrate de usar una cuenta corporativa o personal a la cual tengas acceso permanente, ya que allí gestionarás la facturación y las credenciales.

Paso a paso para generar tu API Key

  1. Accede a la consola: Ingresa a la sección de credenciales de Vertex AI haciendo clic aquí.

  2. Crea un Proyecto: Si no tienes uno, verás una pantalla de bienvenida. Haz clic en "Crear proyecto".

  3. Configura el Proyecto: Asigna un nombre a tu proyecto (ej: gemini-integration-prod) y vincúlalo a tu organización si corresponde. Luego, haz clic en "Crear".

  4. Genera la Credencial: Una vez en el panel de gestión, localiza y haz clic en el botón "Crear clave de API".

  5. Guarda tu API Key: El sistema generará una clave única. Cópiala y guárdala en un gestor de contraseñas o variables de entorno, ya que la necesitarás para autenticar tus requests.


Estructura del Request

Una vez tengas tu API Key, deberás actualizar la URL de tu endpoint (usando la base de Vertex AI) y el cuerpo de la petición.

A continuación, un ejemplo de un body JSON válido que incluye instrucciones del sistema (system_instruction), el mensaje del usuario y herramientas (Google Search):

{
  "system_instruction": {
    "role": "system",
    "parts": [
      {
        "text": "Eres un asistente experto en analisis de datos financieros..."
      }
    ]
  },
  "contents": [
    {
      "role": "user",
      "parts": [
        {
          "text": "Analiza este reporte de 2026..."
        }
      ]
    }
  ],
  "generation_config": {
    "top_p": 0.2,
    "temperature": 0.2,
    "max_output_tokens": 3000
  },
  "tools": [
    {
      "google_search": {}
    }
  ]
}

(Bonus track) Optimización de Costos: Context Caching

Si tu aplicación utiliza un system_instruction muy extenso o documentos de referencia que no cambian entre cada consulta, puedes aprovechar el Context Caching de Gemini en Vertex AI.

¿Cómo funciona? Al enviar contenido estático (como un manual de marca, reglas de negocio complejas o instrucciones para llevar a cabo la tarea) en el system_instruction o en el historial inicial:

  1. Gemini identifica que este contenido ya ha sido procesado.

  2. El modelo lo recupera de la caché en lugar de procesarlo desde cero.

  3. Beneficio: Esto reduce el costo de los input tokens (tokens de entrada) hasta en un 75% y reduce la latencia de la respuesta.

Recomendación: Estructura tus promts para que la parte "pesada" y estática quede siempre al inicio, y solo varíe la consulta final del usuario.

Relacionada con

¿Fue útil este artículo?

Usuarios a los que les pareció útil: 0 de 0

¿Tiene más preguntas? Enviar una solicitud

Comentarios

0 comentarios

Inicie sesión para dejar un comentario.