🎉 30% OFF Pro PlanRéclamer Maintenant
Medical AI Background

Accès API

Guide d'Utilisation des APIs MedGemma et MedSigLIP

Commencez avec les modèles d'IA médicale de Google grâce à un accès API complet. Demandez des clés API et intégrez des capacités d'IA médicale avancées dans vos applications.

Demander l'Accès API

Commencez avec les APIs MedGemma et MedSigLIP

API MedGemma

Modèles d'IA médicale de texte et multimodaux avancés

Accédez aux puissantes capacités de MedGemma pour l'analyse de texte médical, la compréhension d'images et le support de décision clinique.

Caractéristiques Clés

  • Génération et analyse de texte médical
  • Traitement multimodal d'images et de texte médical
  • Réponses aux questions cliniques
  • Génération de rapports médicaux
  • Capacités de fine-tuning

Modèles Disponibles

MedGemma 4B Multimodal

Modèle léger pour les tâches d'images et de texte médical

4B paramètres

MedGemma 27B Texte Seulement

Grand modèle de langage spécialisé en texte médical

27B paramètres

MedGemma 27B Multimodal

Modèle multimodal avancé pour les tâches médicales complexes

27B paramètres

API MedSigLIP

Encodeur image-texte médical pour classification et récupération

Exploitez l'architecture efficace à double tour de MedSigLIP pour la classification d'images médicales, l'inférence zéro-shot et la récupération sémantique.

Caractéristiques Clés

  • Classification d'images médicales zéro-shot
  • Récupération sémantique d'images
  • Embeddings d'images médicales
  • Classification efficace des données
  • Recherche de similarité cross-modale

Spécifications du Modèle

Paramètres :400M paramètres
Taille d'Image :448×448 pixels
Longueur de Texte :64 tokens maximum
Architecture :Encodeur double tour (vision + texte)

Options de Déploiement

Choisissez la meilleure méthode de déploiement pour vos besoins

Déploiement Local

Exécutez les modèles localement en utilisant les transformers Hugging Face

Pros:

  • +Contrôle total
  • +Pas de limites API
  • +Confidentialité des données

Cons:

  • -Nécessite des ressources GPU
  • -Complexité de configuration
Best for: Développement et tests

Déploiement Vertex AI

Déployez comme endpoints API REST sur Google Cloud

Pros:

  • +Évolutif
  • +Infrastructure gérée
  • +Prêt pour la production

Cons:

  • -Coûts d'usage
  • -Dépendance cloud
Best for: Applications de production

Traitement par Lots

Traitez de grands ensembles de données avec les jobs par lots Vertex AI

Pros:

  • +Rentable
  • +Traitement à grande échelle

Cons:

  • -Pas en temps réel
  • -Planification par lots
Best for: Traitement de données en masse

Code Examples

Get started with implementation examples

MedGemma Implementation

Local Deployment

from transformers import pipeline

# Load MedGemma model
pipe = pipeline(
    "text-generation",
    model="google/medgemma-27b-text-it",
    torch_dtype="bfloat16",
    device="cuda"
)

# Generate medical text
response = pipe(
    "What are the symptoms of diabetes?",
    max_length=200,
    temperature=0.7
)

print(response[0]['generated_text'])

Vertex AI REST API

import requests
import json

# Vertex AI endpoint
endpoint_url = "https://your-endpoint.googleapis.com/v1/projects/your-project/locations/us-central1/endpoints/your-endpoint:predict"

# Request payload
payload = {
    "instances": [{
        "prompt": "What are the symptoms of diabetes?",
        "max_tokens": 200,
        "temperature": 0.7
    }]
}

# Make API request
headers = {
    "Authorization": "Bearer YOUR_ACCESS_TOKEN",
    "Content-Type": "application/json"
}

response = requests.post(endpoint_url, json=payload, headers=headers)
result = response.json()

print(result['predictions'][0]['generated_text'])

MedSigLIP Implementation

Local Deployment

from transformers import AutoModel, AutoProcessor
import torch
from PIL import Image

# Load MedSigLIP model
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Load and process image
image = Image.open("medical_image.jpg")
text = "chest x-ray showing pneumonia"

# Process inputs
inputs = processor(
    text=[text],
    images=[image],
    return_tensors="pt",
    padding=True
)

# Get embeddings
with torch.no_grad():
    outputs = model(**inputs)
    image_embeds = outputs.image_embeds
    text_embeds = outputs.text_embeds

# Calculate similarity
similarity = torch.cosine_similarity(image_embeds, text_embeds)
print(f"Similarity score: {similarity.item():.4f}")

Zero-shot Classification

import torch
from transformers import AutoModel, AutoProcessor
from PIL import Image

# Load model and processor
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")

# Define classification labels
labels = [
    "normal chest x-ray",
    "pneumonia chest x-ray",
    "covid-19 chest x-ray",
    "lung cancer chest x-ray"
]

# Load image
image = Image.open("chest_xray.jpg")

# Process inputs
inputs = processor(
    text=labels,
    images=[image] * len(labels),
    return_tensors="pt",
    padding=True
)

# Get predictions
with torch.no_grad():
    outputs = model(**inputs)
    logits = outputs.logits_per_image
    probs = torch.softmax(logits, dim=-1)

# Get top prediction
top_idx = torch.argmax(probs, dim=-1)
confidence = probs[0, top_idx].item()

print(f"Prediction: {labels[top_idx]}")
print(f"Confidence: {confidence:.4f}")