포괄적인 API 액세스를 통해 Google의 의료 AI 모델을 시작하세요. API 키를 신청하고 고급 의료 AI 기능을 애플리케이션에 통합하세요.
MedGemma 및 MedSigLIP API 시작하기
고급 의료 텍스트 및 멀티모달 AI 모델
의료 텍스트 분석, 이미지 이해 및 임상 의사결정 지원을 위한 MedGemma의 강력한 기능에 액세스하세요.
의료 이미지 및 텍스트 작업을 위한 경량 모델
40억 매개변수의료 텍스트에 특화된 대형 언어 모델
270억 매개변수복잡한 의료 작업을 위한 고급 멀티모달 모델
270억 매개변수분류 및 검색을 위한 의료 이미지-텍스트 인코더
의료 이미지 분류, 제로샷 추론 및 의미론적 검색을 위한 MedSigLIP의 효율적인 듀얼 타워 아키텍처를 활용하세요.
필요에 맞는 최적의 배포 방법을 선택하세요
Hugging Face transformers를 사용하여 로컬에서 모델 실행
Google Cloud에서 REST API 엔드포인트로 배포
Vertex AI 배치 작업으로 대용량 데이터셋 처리
Get started with implementation examples
from transformers import pipeline
# Load MedGemma model
pipe = pipeline(
"text-generation",
model="google/medgemma-27b-text-it",
torch_dtype="bfloat16",
device="cuda"
)
# Generate medical text
response = pipe(
"What are the symptoms of diabetes?",
max_length=200,
temperature=0.7
)
print(response[0]['generated_text'])
import requests
import json
# Vertex AI endpoint
endpoint_url = "https://your-endpoint.googleapis.com/v1/projects/your-project/locations/us-central1/endpoints/your-endpoint:predict"
# Request payload
payload = {
"instances": [{
"prompt": "What are the symptoms of diabetes?",
"max_tokens": 200,
"temperature": 0.7
}]
}
# Make API request
headers = {
"Authorization": "Bearer YOUR_ACCESS_TOKEN",
"Content-Type": "application/json"
}
response = requests.post(endpoint_url, json=payload, headers=headers)
result = response.json()
print(result['predictions'][0]['generated_text'])
from transformers import AutoModel, AutoProcessor
import torch
from PIL import Image
# Load MedSigLIP model
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")
# Load and process image
image = Image.open("medical_image.jpg")
text = "chest x-ray showing pneumonia"
# Process inputs
inputs = processor(
text=[text],
images=[image],
return_tensors="pt",
padding=True
)
# Get embeddings
with torch.no_grad():
outputs = model(**inputs)
image_embeds = outputs.image_embeds
text_embeds = outputs.text_embeds
# Calculate similarity
similarity = torch.cosine_similarity(image_embeds, text_embeds)
print(f"Similarity score: {similarity.item():.4f}")
import torch
from transformers import AutoModel, AutoProcessor
from PIL import Image
# Load model and processor
model = AutoModel.from_pretrained("google/medsiglip")
processor = AutoProcessor.from_pretrained("google/medsiglip")
# Define classification labels
labels = [
"normal chest x-ray",
"pneumonia chest x-ray",
"covid-19 chest x-ray",
"lung cancer chest x-ray"
]
# Load image
image = Image.open("chest_xray.jpg")
# Process inputs
inputs = processor(
text=labels,
images=[image] * len(labels),
return_tensors="pt",
padding=True
)
# Get predictions
with torch.no_grad():
outputs = model(**inputs)
logits = outputs.logits_per_image
probs = torch.softmax(logits, dim=-1)
# Get top prediction
top_idx = torch.argmax(probs, dim=-1)
confidence = probs[0, top_idx].item()
print(f"Prediction: {labels[top_idx]}")
print(f"Confidence: {confidence:.4f}")
완전한 문서 및 예제