ChatGPT ve gerçek doktorlar karşı karşıya geldi! Peki sınavı hangisi kazandı?
Doktorlar ve yapay zeka programlarını karşı karşıya getiren bir test yapıldı. Peki ama yapay zekalar insanları geçebildi mi?
Birleşik Krallık’ın önde gelen eğitim kurumlarından Cambridge Üniversitesi Tıp Fakültesi, göz ve görme sistem hastalıkları üzerine odaklanan bir araştırma gerçekleştirdi. Araştırma kapsamında, oftalmoloji alanında 87 çoktan seçmeli sorudan oluşan bir sınav düzenlendi. Sınav, bu alanda uzmanlaşmış beş oftalmolog, üç stajyer oftalmolog ve iki yeni doktor ile birlikte OpenAI’nin GPT-4 ve GPT-3.5, Google’ın PaLM 2 ve Meta’nın LLaMA yapay zeka dil modellerini de içeren geniş bir katılımcı grubunu bir araya getirdi.
Sonuçlar, yapay zekanın tıbbi bilgi ve problem çözme yeteneğini bir kez daha ön plana çıkardı. GPT-4, 87 sorudan 60’ını doğru yanıtlayarak hem insan rakiplerini hem de diğer yapay zeka modellerini geride bıraktı. Uzman oftalmologlar ise ortalama 66.4 doğru yanıt ile yakın bir performans sergiledi. Diğer yapay zeka modelleri olan GPT-3.5, PaLM 2 ve LLaMA ise sırasıyla 42, 49 ve 28 doğru yanıtla sıralandı.
ChatGPT ve gerçek doktorlar karşı karşıya geldi! Peki sınavı hangisi kazandı?
Bu sonuçlar, yapay zeka teknolojilerinin, özellikle tıp gibi karmaşık ve uzmanlık gerektiren alanlarda nasıl bir potansiyel taşıdığını gösteriyor. GPT-4’ün üstün performansı, yapay zekanın sadece teorik bilgiyi değil, aynı zamanda çoktan seçmeli sınavlar gibi standardize test formatlarında da etkili olabileceğini kanıtlıyor.
Araştırma, yapay zekanın tıbbi eğitim ve pratikte nasıl bir rol oynayabileceğine dair önemli ipuçları sunuyor. Yapay zeka teknolojilerinin daha geniş bir kullanımı, tıp alanında eğitim metodolojilerini ve hasta bakımını iyileştirme potansiyeline sahip. Cambridge Üniversitesi’nin bu girişimi, hem eğitim hem de uygulamalı tıp alanında yapay zekanın entegrasyonunu daha da ileriye taşıyacak gibi görünüyor.