谷歌開源MedGemma AI模型,醫療圖像與文本分析神器
5 月 21 日消息, 科技 媒體 marktechpost 昨日(5 月 20 日)發布博文,報道稱在 2025 年 I/O 開發者大會上,谷歌針對多模態醫療文本和圖像理解,推出了 MedGemma 開源模型。
MedGemma 基于 Gemma 3 架構,提供 4B 參數的多模態模型(分類)和 27B 參數的純文本模型兩種配置,4B 模型擅長分類和解讀醫療圖像,可生成診斷報告或解答圖像相關問題;27B 模型則擅長臨床文本,支持患者分診和決策輔助。
MedGemma 4B 擁有 40 億參數,采用 SigLIP 圖像編碼器,預訓練數據涵蓋胸部 X 光、皮膚病學、眼科及組織病理學圖像;MedGemma 27B 則有 270 億參數,專注于醫療文本理解與臨床推理,適合需要深入文本分析的任務。
模型既能本地運行用于實驗,也可通過 Google Cloud 的 Vertex AI 部署為 HTTPS 端點,實現大規模應用。Google 還提供 Colab 筆記本等資源,助力模型微調和集成。
谷歌鼓勵開發者針對具體場景進行驗證和微調,并提供相關指導和工具,支持適配過程。開發者可采用提示工程、上下文學習及 LoRA 等參數高效微調方法優化模型效果。
【來源:IT之家】