🎉 30% OFF Pro PlanReclamar Ahora
Medical AI Background

Acceso API

Guía de Uso de APIs MedGemma y MedSigLIP

Comienza con los modelos de IA médica de Google a través de un acceso API integral. Solicita claves API e integra capacidades avanzadas de IA médica en tus aplicaciones.

Solicitar Acceso API

Comienza con las APIs de MedGemma y MedSigLIP

API MedGemma

Modelos avanzados de IA médica de texto y multimodal

Accede a las poderosas capacidades de MedGemma para análisis de texto médico, comprensión de imágenes y soporte de decisiones clínicas.

Características Clave

  • Generación y análisis de texto médico
  • Procesamiento multimodal de imágenes y texto médico
  • Respuestas a preguntas clínicas
  • Generación de reportes médicos
  • Capacidades de ajuste fino

Modelos Disponibles

MedGemma 4B Multimodal

Modelo ligero para tareas de imágenes y texto médico

4B parámetros

MedGemma 27B Solo Texto

Modelo de lenguaje grande especializado en texto médico

27B parámetros

MedGemma 27B Multimodal

Modelo multimodal avanzado para tareas médicas complejas

27B parámetros

API MedSigLIP

Codificador de imagen-texto médico para clasificación y recuperación

Aprovecha la arquitectura eficiente de torre dual de MedSigLIP para clasificación de imágenes médicas, inferencia de cero disparos y recuperación semántica.

Características Clave

  • Clasificación de imágenes médicas de cero disparos
  • Recuperación semántica de imágenes
  • Embeddings de imágenes médicas
  • Clasificación eficiente de datos
  • Búsqueda de similitud cross-modal

Especificaciones del Modelo

Parámetros:400M parámetros
Tamaño de Imagen:448×448 píxeles
Longitud de Texto:64 tokens máximo
Arquitectura:Codificador de torre dual (visión + texto)

Opciones de Despliegue

Elige el mejor método de despliegue para tus necesidades

Despliegue Local

Ejecuta modelos localmente usando transformers de Hugging Face

Pros:

  • +Control total
  • +Sin límites de API
  • +Privacidad de datos

Cons:

  • -Requiere recursos GPU
  • -Complejidad de configuración
Best for: Desarrollo y pruebas

Despliegue Vertex AI

Despliega como endpoints de API REST en Google Cloud

Pros:

  • +Escalable
  • +Infraestructura gestionada
  • +Listo para producción

Cons:

  • -Costos de uso
  • -Dependencia de la nube
Best for: Aplicaciones de producción

Procesamiento por Lotes

Procesa grandes conjuntos de datos con trabajos por lotes de Vertex AI

Pros:

  • +Costo-efectivo
  • +Procesamiento a gran escala

Cons:

  • -No en tiempo real
  • -Programación por lotes
Best for: Procesamiento de datos masivos

Code Examples

Get started with implementation examples

MedGemma Implementation

Local Deployment

from transformers import pipeline

# Load MedGemma model
pipe = pipeline(
    "text-generation",
    model="google/medgemma-27b-text-it",
    torch_dtype="bfloat16",
    device="cuda"
)

# Generate medical text
response = pipe(
    "What are the symptoms of diabetes?",
    max_length=200,
    temperature=0.7
)

print(response[0]['generated_text'])

Vertex AI REST API

import requests
import json

# Vertex AI endpoint
endpoint_url = "https://your-endpoint.googleapis.com/v1/projects/your-project/locations/us-central1/endpoints/your-endpoint:predict"

# Request payload
payload = {
    "instances": [{
        "prompt": "What are the symptoms of diabetes?",
        "max_tokens": 200,
        "temperature": 0.7
    }]
}

# Make API request
headers = {
    "Authorization": "Bearer YOUR_ACCESS_TOKEN",
    "Content-Type": "application/json"
}

response = requests.post(endpoint_url, json=payload, headers=headers)
result = response.json()

print(result['predictions'][0]['generated_text'])

MedSigLIP Implementation

Local Deployment

from transformers import AutoModel, AutoProcessor
import torch
from PIL import Image

# Load MedSigLIP model
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Load and process image
image = Image.open("medical_image.jpg")
text = "chest x-ray showing pneumonia"

# Process inputs
inputs = processor(
    text=[text],
    images=[image],
    return_tensors="pt",
    padding=True
)

# Get embeddings
with torch.no_grad():
    outputs = model(**inputs)
    image_embeds = outputs.image_embeds
    text_embeds = outputs.text_embeds

# Calculate similarity
similarity = torch.cosine_similarity(image_embeds, text_embeds)
print(f"Similarity score: {similarity.item():.4f}")

Zero-shot Classification

import torch
from transformers import AutoModel, AutoProcessor
from PIL import Image

# Load model and processor
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Define classification labels
labels = [
    "normal chest x-ray",
    "pneumonia chest x-ray",
    "covid-19 chest x-ray",
    "lung cancer chest x-ray"
]

# Load image
image = Image.open("chest_xray.jpg")

# Process inputs
inputs = processor(
    text=labels,
    images=[image] * len(labels),
    return_tensors="pt",
    padding=True
)

# Get predictions
with torch.no_grad():
    outputs = model(**inputs)
    logits = outputs.logits_per_image
    probs = torch.softmax(logits, dim=-1)

# Get top prediction
top_idx = torch.argmax(probs, dim=-1)
confidence = probs[0, top_idx].item()

print(f"Prediction: {labels[top_idx]}")
print(f"Confidence: {confidence:.4f}")