Google’ın yapay zeka bölümü DeepMind, kurucusu Demis Hassabis‘e göre bu yıl ChatGPT sohbet botuna bir rakip yayımlamayı planlıyor. Independent Türkçe’nin haberine göre DeepMind’ın Sparrow sohbet botunun, takviyeli öğrenme yoluyla kaynak gösterme yeteneği de dahil OpenAI’ın ChatGPT’sinin sahip olmadığı özellikler taşıdığı bildirildi. Fakat Hassabis, güçlü yapay zeka teknolojisinin potansiyel tehlikelerine karşı uyardı.
Time dergisine konuşan Hassabis, Sparrow’un 2023’te özel bir beta olarak yayımlanabileceğini fakat yapay zekanın insanlığa önemli zarar verebilecek bir seviyeye ulaşmanın “eşiğinde” olduğunu söyledi.
“Çok güçlü teknolojiler söz konusu olduğunda (ve açıkçası yapay zeka şimdiye kadarki en güçlü teknolojilerden biri olacak) dikkatli olmamız gerekiyor. Bunları herkes düşünmüyor. Birçoğu tehlikeli madde tuttuklarının farkında olmayan deneyciler gibi.”
Geçen yıl ChatGPT’nin piyasaya sürülmesi, yapay zekanın ilerlemesi için bir dönüm noktası olarak nitelendirildi. Bazıları, genel amaçlı dil modelinin endüstrilerde devrim yaratabileceğini ve hatta Google’ın arama motoru gibi popüler araçların yerini alabileceğini iddia etti.
Çok çeşitli sorguları anlayıp insan benzeri yanıtlar verme yeteneği, OpenAI CEO’su Sam Altman’ın insan düzeyindeki sistemlerde “korkutucu anlar” ve “önemli aksaklıklar” uyarısı yaptığı için kötüye kullanılabileceği endişelerini de gündeme getirdi.
2010’da kurulduğundan bu yana DeepMind, karmaşık masa oyunu Go’da insan dünya şampiyonlarını yenmek ve bilinen tüm proteinlerin 200 milyondan fazla yapısını tahmin etmek de dahil bir dizi disiplini kapsayan birkaç önemli yapay zeka kilometre taşına ulaştı.
Londra merkezli şirket ilk olarak eylülde yayımlanan bir makalede, diğer dil modellerine kıyasla daha yararlı, doğru ve zararsız olmak üzere tasarlanmış bir “bilgi arayan diyalog robotu” diye tanımladıkları bir büyük dil modeli (LLM) sohbet robotu üzerinde çalıştığını açıkladı.
Makaleyle birlikte yayımlanan bir blog yazısında DeepMind, Sparrow’un diğer sohbet robotlarını daha güvenli ve daha kullanışlı olacak şekilde eğitmek için kullanılabileceğini açıkladı. Verilen bir örnek, Sparrow’un kullanıcılardan gelen, bir arabaya nasıl düz kontak yapılacağı gibi zararlı olması muhtemel soruları tespit etme yeteneğiydi.
Blog yazısında “LLM’lerden beslenen diyalog robotları yanlış veya uydurulmuş bilgileri ifade edebilir, ayrımcı bir dil kullanabilir veya güvenli olmayan davranışları teşvik edebilir” ifadeleri kullanıldı.