🎉 30% OFF Pro PlanResgatar Agora
Medical AI Background

Acesso à API

Guia de Uso das APIs MedGemma e MedSigLIP

Comece com os modelos de IA médica do Google através de acesso abrangente à API. Solicite chaves de API e integre capacidades avançadas de IA médica em suas aplicações.

Solicitar Acesso à API

Comece com as APIs MedGemma e MedSigLIP

API MedGemma

Modelos avançados de IA médica de texto e multimodal

Acesse as poderosas capacidades do MedGemma para análise de texto médico, compreensão de imagens e suporte à decisão clínica.

Características Principais

  • Geração e análise de texto médico
  • Processamento multimodal de imagens e texto médico
  • Respostas a perguntas clínicas
  • Geração de relatórios médicos
  • Capacidades de ajuste fino

Modelos Disponíveis

MedGemma 4B Multimodal

Modelo leve para tarefas de imagens e texto médico

4B parâmetros

MedGemma 27B Apenas Texto

Modelo de linguagem grande especializado em texto médico

27B parâmetros

MedGemma 27B Multimodal

Modelo multimodal avançado para tarefas médicas complexas

27B parâmetros

API MedSigLIP

Codificador de imagem-texto médico para classificação e recuperação

Aproveite a arquitetura eficiente de torre dupla do MedSigLIP para classificação de imagens médicas, inferência zero-shot e recuperação semântica.

Características Principais

  • Classificação de imagens médicas zero-shot
  • Recuperação semântica de imagens
  • Embeddings de imagens médicas
  • Classificação eficiente de dados
  • Busca de similaridade cross-modal

Especificações do Modelo

Parâmetros:400M parâmetros
Tamanho da Imagem:448×448 pixels
Comprimento do Texto:64 tokens máximo
Arquitetura:Codificador de torre dupla (visão + texto)

Opções de Implantação

Escolha o melhor método de implantação para suas necessidades

Implantação Local

Execute modelos localmente usando transformers do Hugging Face

Pros:

  • +Controle total
  • +Sem limites de API
  • +Privacidade de dados

Cons:

  • -Requer recursos GPU
  • -Complexidade de configuração
Best for: Desenvolvimento e testes

Implantação Vertex AI

Implante como endpoints de API REST no Google Cloud

Pros:

  • +Escalável
  • +Infraestrutura gerenciada
  • +Pronto para produção

Cons:

  • -Custos de uso
  • -Dependência da nuvem
Best for: Aplicações de produção

Processamento em Lote

Processe grandes conjuntos de dados com jobs em lote do Vertex AI

Pros:

  • +Custo-efetivo
  • +Processamento em larga escala

Cons:

  • -Não em tempo real
  • -Agendamento em lote
Best for: Processamento de dados em massa

Code Examples

Get started with implementation examples

MedGemma Implementation

Local Deployment

from transformers import pipeline

# Load MedGemma model
pipe = pipeline(
    "text-generation",
    model="google/medgemma-27b-text-it",
    torch_dtype="bfloat16",
    device="cuda"
)

# Generate medical text
response = pipe(
    "What are the symptoms of diabetes?",
    max_length=200,
    temperature=0.7
)

print(response[0]['generated_text'])

Vertex AI REST API

import requests
import json

# Vertex AI endpoint
endpoint_url = "https://your-endpoint.googleapis.com/v1/projects/your-project/locations/us-central1/endpoints/your-endpoint:predict"

# Request payload
payload = {
    "instances": [{
        "prompt": "What are the symptoms of diabetes?",
        "max_tokens": 200,
        "temperature": 0.7
    }]
}

# Make API request
headers = {
    "Authorization": "Bearer YOUR_ACCESS_TOKEN",
    "Content-Type": "application/json"
}

response = requests.post(endpoint_url, json=payload, headers=headers)
result = response.json()

print(result['predictions'][0]['generated_text'])

MedSigLIP Implementation

Local Deployment

from transformers import AutoModel, AutoProcessor
import torch
from PIL import Image

# Load MedSigLIP model
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Load and process image
image = Image.open("medical_image.jpg")
text = "chest x-ray showing pneumonia"

# Process inputs
inputs = processor(
    text=[text],
    images=[image],
    return_tensors="pt",
    padding=True
)

# Get embeddings
with torch.no_grad():
    outputs = model(**inputs)
    image_embeds = outputs.image_embeds
    text_embeds = outputs.text_embeds

# Calculate similarity
similarity = torch.cosine_similarity(image_embeds, text_embeds)
print(f"Similarity score: {similarity.item():.4f}")

Zero-shot Classification

import torch
from transformers import AutoModel, AutoProcessor
from PIL import Image

# Load model and processor
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Define classification labels
labels = [
    "normal chest x-ray",
    "pneumonia chest x-ray",
    "covid-19 chest x-ray",
    "lung cancer chest x-ray"
]

# Load image
image = Image.open("chest_xray.jpg")

# Process inputs
inputs = processor(
    text=labels,
    images=[image] * len(labels),
    return_tensors="pt",
    padding=True
)

# Get predictions
with torch.no_grad():
    outputs = model(**inputs)
    logits = outputs.logits_per_image
    probs = torch.softmax(logits, dim=-1)

# Get top prediction
top_idx = torch.argmax(probs, dim=-1)
confidence = probs[0, top_idx].item()

print(f"Prediction: {labels[top_idx]}")
print(f"Confidence: {confidence:.4f}")