Microsoft, yeni AI sohbet botu için daha fazla sınırlama düşünüyor

BadılCan

Active member
Sürüm – potansiyel kusurlara rağmen – Microsoft’un üretken yapay zekayı ürünlerine dahil etme “çılgınca hızı” nın kritik bir örneği olduğunu söyledi. Microsoft’un Redmond, Washington kampüsündeki bir basın toplantısında yöneticiler defalarca aracı “laboratuvardan” çıkarıp halkın eline verme zamanının geldiğini söylediler.

Nadella, “Özellikle Batı’da, ‘Aman Tanrım, bu yapay zeka yüzünden ne olacak?’ gibi daha pek çok soru var gibi hissediyorum.” dedi. “Ve gerçekten ‘Hey, bak, bu gerçekten sana yardımcı oluyor mu, yardımcı olmuyor mu?’ gibi olmak daha iyi.”

Washington Üniversitesi’nde fahri profesör ve Seattle’ın önde gelen laboratuvarlarından Allen Institute for AI’nın kurucu başkanı Oren Etzioni, Microsoft’un “hesaplanmış bir risk aldığını ve teknolojiyi mümkün olduğunca kontrol etmeye çalıştığını” söyledi.

En rahatsız edici vakaların çoğunun, teknolojiyi normal davranışın ötesine itmeyi içerdiğini de sözlerine ekledi. “İnsanların sohbet robotlarından uygunsuz yanıtlar alma konusunda ne kadar zeki oldukları çok şaşırtıcı olabilir” dedi. Microsoft yetkililerine atıfta bulunarak, “Chatbot’a bu şekilde yönlendirildiğinde bazı yanıtların bu kadar kötü olacağını beklediklerini sanmıyorum.”

Sorunlardan korunmak için Microsoft, yeni Bing’e yalnızca birkaç bin kullanıcıya erişim izni verdi, ancak ay sonuna kadar daha milyonlara ulaşmayı planladı. Doğrulukla ilgili endişeleri gidermek için, kullanıcıların sonuçları kontrol edebilmesi için yanıtlarında köprüler ve referanslar sağladı.

Dikkat, şirketin yaklaşık yedi yıl önce Tay adında bir sohbet robotu başlattığı deneyime dayanıyordu. Kullanıcılar neredeyse anında ırkçı, cinsiyetçi ve diğer saldırgan dilleri tükürmenin yollarını buldular. Şirket, Tay’ı bir gün içinde bir daha bırakmamak üzere indirdi.

Yeni sohbet robotuyla ilgili eğitimin çoğu, bu tür kötü niyetli yanıtlara veya şiddeti kışkırtan senaryolara karşı korunmaya odaklandı. B. bir okula saldırı planlamak.
 
Üst