Yapay Zekâ Sohbet Botlarının Haber Özetleme Yetenekleri Üzerine Araştırma
BBC’nin gerçekleştirdiği bir araştırma, yapay zekâ sohbet botlarının haberleri doğru bir şekilde özetleme yeteneklerini sorguluyor. Bu çalışmada, OpenAI’ın ChatGPT’si, Microsoft’un Copilot’u, Google’ın Gemini’si ve Perplexity AI, BBC haberleriyle beslenerek bu içerikleri özetlemeye çalıştı. Araştırma, yapay zekâ sohbet botlarının haber özetleme becerilerini değerlendirmek amacıyla 100 farklı haberi incelemeye aldı.
İnceleme sonuçları, bu botların haberleri doğru bir biçimde özetleme konusunda ciddi sorunlarla karşılaştığını ortaya koydu. Özellikle, önemli bilgilerin hatalı ya da eksik bir şekilde aktarıldığı tespit edildi.
- Hatalı Tarihler: Botların verdiği yanıtların %51’inde önemli yanlışlıklar bulundu.
- Yanlış Alıntılar: BBC kaynaklı haberleri temel alan yanıtların %19’unda hatalı tarihler, yanlış rakamlar ve eksik ya da çarpıtılmış bilgiler yer aldı.
Özellikle dikkat çeken hatalar arasında, Gemini’nin İngiltere’nin sağlık sistemi NHS’nin elektronik sigarayı sigarayı bırakmak için önerilmediğini iddia etmesi yer alıyor. Ayrıca, ChatGPT ve Copilot’un eski İngiltere Başbakanı Rishi Sunak ile eski İskoçya Başbakanı Nicola Sturgeon’un hâlâ görevde olduğunu belirtmeleri de gözden kaçmadı. Perplexity ise BBC haberlerini yanlış bir şekilde alıntıladı.
BBC yetkilileri, yapay zekâ şirketleriyle iş birliği yaparak bu tür hataların önüne geçilmesi gerektiğine vurgu yaptı. BBC, yapay zekâ destekli haber özetleme sistemlerinin geri çekilmesini talep ederken, daha önce Apple’ın benzer bir durumu kabul ederek bu özelliği devre dışı bıraktığını da hatırlattı.
Yapay zekâ sohbet botlarının haber içeriklerini nasıl ele aldığına dair tartışmalar devam ederken, OpenAI ise kaynak gösterme konusunda iyileştirmeler yapmaya devam ettiklerini açıkladı. Bu durum, kullanıcıların haberlerin doğruluğuna dair daha fazla güven duymalarını sağlamak adına önemli bir adım olarak değerlendiriliyor.