Home
» Wiki
»
Yapay Zeka Sohbet Robotlarının Haber Brifinglerine Neden Güvenmemelisiniz
Yapay Zeka Sohbet Robotlarının Haber Brifinglerine Neden Güvenmemelisiniz
Hızlı haber özetleri sunmak için bir AI chatbot kullanmadan önce mutlaka iki kere düşünmelisiniz. BBC'nin yeni raporuna göre, popüler sohbet robotları özet sonuçlarında büyük hatalar yapıyor.
Google Gemini, en yüksek sorunlu özet oranına sahip
Testte ChatGPT , Google Gemini , Microsoft Copilot ve Perplexity AI yer alıyor . BBC, başlangıç olarak her chatbot'a 100 haber sorusu sordu ve mümkün olduğunda BBC Haber kaynaklarını kullanmalarını istedi.
Daha sonra BBC uzmanları bu özetlerin kalitesini değerlendirdi. Özetlerin %51'inde bir tür hata vardı; bunlar olgusal yanlışlıklar, yanlış alıntılar veya güncelliğini yitirmiş bilgiler olabilirdi.
Bunlardan %19'unda yanlış tarihler gibi bir tür olgusal hata vardı. Özetlerde BBC'ye atfedilen alıntıların %13'ü ise ya orijinalinden değiştirilmişti ya da chatbot'lara sağlanan makalelerde yer almıyordu.
Chatbot üzerinden analiz edildiğinde Google'ın Gemini'si en büyük suçlu olarak ortaya çıktı ve özetlerin %60'ından fazlası sorunlu bilgiler içeriyordu. Microsoft Copilot %50 ile ikinci sırada yer alırken, ChatGPT ve Perplexity'nin sorunlu yanıt oranı ise yaklaşık %40'tı.
BBC, sonuç bölümünde sorunların çoğunun sadece yanlış bilgilendirmeden kaynaklanmadığını söyledi:
Çalışmada ayrıca yapay zekalı asistanların yaptığı hataların kapsamının, olgusal yanlışlıkların ötesine geçtiği de ortaya çıktı. Test ettiğimiz yapay zeka yardımcıları, fikir ile gerçeği birbirinden ayırmakta zorlandı, yorum yaptı ve çoğu zaman gerekli bağlamı dahil etmekte başarısız oldu. Geri bildirimdeki her ifade doğru olsa bile, bu tür sorunlar yanıltıcı veya taraflı geri bildirimlere yol açabilir.
Birçok kişi, haber özetlemek için yapay zeka sohbet robotlarını kullanmayı hiç denemedi çünkü bu teknolojinin güvenilirliğine güvenmiyorlar. Ancak çok sayıda sorunlu sonuç göz önüne alındığında, çalışma sonuçları yine de şaşırtıcıydı. Yapay zekanın haberler hakkında daha fazla bilgi edinmenin güvenilir bir yolu haline gelmesi için daha kat etmesi gereken uzun bir yol var.
Yapay zeka özellikleri hala üzerinde çalışılan bir konu
Yapay zeka teknolojisi, özellikle chatbot'lar hızla gelişmeye devam ediyor. Ancak BBC araştırmalarının da gösterdiği gibi, haberler hakkında doğru bilgi beklemek son derece sorunlu bir alan.
BBC, yapay zeka destekli bir diğer özellik olan Apple Intelligence Bildirim Özeti'nden şikayetçi oldu. Aralık 2024'te kanalda yayınlanan bir haber özetinde Luigi Mangione'nin kendini vurduğu yanlış bir şekilde belirtilmişti. Sağlık şirketi CEO'su Brian Thompson'ı vurarak öldürmekle suçlanan adam.