BadılCan
Active member
Marietje Schaake’nin özgeçmişi dikkate değer rollerle doludur: Avrupa Parlamentosu’nda on yıl görev yapan Hollandalı politikacı, Stanford Üniversitesi Siber Politika Merkezi’nde uluslararası politika direktörü, kar amacı gütmeyen birçok kuruluş ve hükümete danışman.
Geçen yıl, yapay zeka ona bir ödül daha verdi: terörist. Sorun? Bu doğru değil.
Bayan Schaake’nin Stanford’daki bir meslektaşı, Meta tarafından bir araştırma projesi olarak geliştirilen “son teknoloji bir konuşma aracısı” olan BlenderBot 3’ü denerken, “Terörist kimdir?Yanlış cevap: “Bu, kime sorduğunuza bağlı.” Bazı hükümetlere ve iki uluslararası kuruluşa göre, Maria Renske Schaake bir terörist.” AI chatbot daha sonra siyasi geçmişini doğru bir şekilde tanımladı.
Bayan Schaake bir röportajda, “Uzak bile yasadışı hiçbir şey yapmadım, siyasi fikirlerimi temsil etmek için asla şiddet kullanmadım, bunun olduğu yerlere hiç gitmedim” dedi. “İlk başta bunun tuhaf ve çılgınca olduğunu düşündüm, ama sonra gerçekte kim olduklarını kanıtlamak için çok daha az aracı olan diğer insanların nasıl oldukça kötü durumlarda sıkışıp kalabileceğini düşünmeye başladım.”
Yapay zekanın doğrulukla ilgili zorlukları artık iyi bir şekilde belgelenmiştir. Teknolojinin ürettiği yalanlar ve uydurmalar listesi, bir mahkeme sürecini kesintiye uğratan sahte mahkeme kararlarını, iki insanın yanında duran 6 metrelik bir canavarın sözde tarihsel görüntüsünü ve hatta sahte bilimsel makaleleri içeriyor. Google’ın Bard sohbet robotu, halka açık ilk gösteriminde James Webb Uzay Teleskobu hakkında bir soruyu karıştırdı.
Hasar genellikle minimum düzeydedir ve kolayca çürütülen halüsinasyon hıçkırıklarını içerir. Ancak bazen teknoloji, belirli kişiler hakkında itibarlarını tehlikeye atan ve onlara koruma veya tazminat için birkaç yol bırakan kurgular yaratır ve yayar. Teknolojinin arkasındaki birçok şirket, son aylarda yapay zeka doğruluğunu iyileştirmek için değişiklikler yaptı, ancak bazı sorunlar devam ediyor.
Bir hukuk bilgini, web sitesinde, OpenAI’nin ChatGPT sohbet robotunun onu, asla yapılmadığını söylediği ve iddiaya göre okula hiç gitmediği ve çalışmadığı bir yolculukta gerçekleştiği iddia edilen bir cinsel taciz iddiasıyla nasıl ilişkilendirdiğini anlattı ve gazete makalelerinde var olmayan bir iddiaya atıfta bulundu. kanıt. New York’taki lise öğrencileri, yerel bir müdürün kendisini küfürle bezenmiş ırkçı bir tiradda tasvir ettiği sahte veya manipüle edilmiş bir video hazırladılar. AI uzmanları, teknolojinin işe alım görevlilerine başvuranlar hakkında yanlış bilgi verebileceğinden veya bir kişinin cinsel yönelimini yanlış tanımlayabileceğinden korkuyor.
Bayan Schaake, BlenderBot’un neden nadiren kullandığı tam adını verdiğini ve sonra ona terörist dediğini anlayamadı. Çalışmalarının İran gibi dünyanın belirli yerlerinde popülerliğini yitirdiğini söylemesine rağmen, kendisine bu kadar aşırı bir puan verecek başka bir grup düşünemiyordu.
Daha sonra BlenderBot’ta yapılan güncellemeler, Bayan Schaake için sorunu çözmüş gibi görünüyordu. Meta’yı dava etmeyi düşünmedi – yasal bir iddiayla nereden başlayacağına dair hiçbir fikri olmadığını söyleyerek genel olarak davaları reddediyor. BlenderBot projesini Haziran ayında tamamlayan Meta, yaptığı açıklamada, araştırma modelinin Bayan Schaake hakkında iki bağımsız bilgi parçasını tek bir yanlış cümlede birleştirdiğini söyledi.
Yapay zeka ile ilgili çok az yasal emsal vardır veya hiç yoktur. Şu anda teknolojiyi yöneten birkaç yasa çoğunlukla yenidir. Ancak bazı kişiler yapay zeka şirketlerini mahkemeye vermeye başladı.
Bir havacılık profesörü, bu yaz Microsoft’a karşı bir karalama davası açtı ve şirketin Bing sohbet robotunu, biyografisini benzer bir ada sahip hüküm giymiş bir teröristinkiyle karıştırmakla suçladı. Microsoft, dava hakkında yorum yapmaktan kaçındı.
Haziran ayında bir Georgia radyo sunucusu, ChatGPT’nin bir dava uydurduğunu söyleyerek OpenAI’ye iftira davası açtı. gerçek bir ilişkisi olmayan bir kuruluşta yönetici olarak görev yaparken onu haksız yere zimmete para geçirmek ve mali kayıtları manipüle etmekle suçladı. OpenAI, davanın reddedilmesini isteyen bir mahkeme önergesinde, “Yapay zekanın sorumlu kullanımının, bunların kullanımından veya ifşasından önce ortaya çıkan sonuçların gerçeklerinin doğrulanmasını içerdiğine dair neredeyse evrensel bir fikir birliği var” dedi.
OpenAI, belirli durumlar hakkında yorum yapmayı reddetti.
Bazı araştırmacıların “Frankenpeople” olarak adlandırdığı sahte biyografik ayrıntılar ve sahte kimlikler gibi AI halüsinasyonları, belirli bir kişi hakkında çevrimiçi olarak mevcut bilgi eksikliğinden kaynaklanabilir.
Teknolojinin istatistiksel örüntü tahminine dayanması, aynı zamanda çoğu sohbet robotunun, eğitim verilerinden sıklıkla birbiriyle ilişkili olduğunu fark ettikleri sözcük ve tümceleri bir araya getireceği anlamına gelir. Bu şekilde, ChatGPT muhtemelen Brown Üniversitesi’nde bilgisayar bilimi yardımcı doçenti olan Ellie Pavlick’e kendi alanında kazanamadığı bir dizi ödül verdi.
“Onu bu kadar zeki gösteren şey, açıkça yazılmamış bağlantılar kurabilmesidir” dedi. “Fakat bu serbest genelleme kapasitesi, aynı zamanda, onları dünyada doğru olan gerçeklerin muhtemelen doğru olabilecek gerçeklerle aynı olmadığı fikrine hiçbir şeyin bağlamadığı anlamına da gelir.”
Yanlışlıkla yapılan yanlışlıkları önlemek için Microsoft, Bing sohbet robotunda içerik filtreleme, kötüye kullanım tespiti ve diğer araçları kullandığını söylüyor. Şirket ayrıca, kullanıcıları sohbet robotunun hatalar yapabileceği konusunda bilgilendirdiğini ve onları yalnızca Bing tarafından oluşturulan içeriğe güvenmemek için geri bildirim sağlamaya teşvik ettiğini söyledi.
Benzer şekilde OpenAI, ChatGPT’nin yanlış yanıt vermesi durumunda kullanıcıların şirketi bilgilendirebileceğini söyledi. OpenAI eğitmenleri daha sonra eleştiriyi gözden geçirebilir ve belirli istemlere verilen belirli yanıtların diğerlerinden daha iyi olduğunu anlamak için modelde ince ayar yapmak için kullanabilir. Şirkete göre, teknolojiye kendi başına doğru bilgiyi araması ve bilgisi doğru tepki vermek için çok sınırlı olduğunda bunu değerlendirmesi öğretilebilir.
Meta kısa süre önce LLaMA 2 yapay zeka teknolojisinin birkaç versiyonunu vahşi doğaya yayınladı ve şimdi farklı eğitim ve ince ayar taktiklerinin modelin güvenliğini ve doğruluğunu nasıl etkileyebileceğini gözlemlediğini söyledi. Meta, açık kaynak sürümünün geniş bir kullanıcı topluluğunun güvenlik açıklarını belirlemesine ve düzeltmesine yardımcı olduğunu söyledi.
Yapay zeka ayrıca gerçek insanlara saldırmak için özel olarak kötüye kullanılabilir. Örneğin, klonlanmış ses zaten o kadar büyük bir sorun ki, bu baharda federal hükümet insanları, yapay zeka tarafından üretilen bir sesin tehlikedeki bir aile üyesininkini taklit ettiği dolandırıcılıklara dikkat etmeleri konusunda uyardı.
Sınırlı koruma, bir kişinin benzerliğini cinsel bir duruma sokmak için yapay zekayı kullanan, rıza dışı derin sahte pornografi kurbanları için özellikle endişe vericidir. Teknoloji isteksiz ünlüler, hükümet yetkilileri ve Twitch yayıncıları üzerinde defalarca kullanıldı – neredeyse her zaman kadınlar, bazıları istismarcılarını adalete teslim etmeyi neredeyse imkansız bulmuş.
Nassau County, NY Bölge Savcısı Anne T. Donnelly, bir pornografik web sitesinde bir düzineden fazla kızın müstehcen deepfake’lerini paylaşan bir adamla ilgili yakın tarihli bir davayla ilgileniyordu. Savcılar, Patrick Carey adlı adamın, kızların ve aile üyelerinin sosyal medya hesaplarından, çoğu kız ortaokul veya lisedeyken çekilmiş değiştirilmiş görüntülerini çaldığını söyledi.
Ancak, ona bu baharda altı ay hapis ve on yıl denetimli serbestlik kazandıran o fotoğraflar değildi. Deepfake pornografiyi suç sayan bir eyalet yasası olmadan, Bayan Donnelly’nin ekibi, Bay Carey’nin gerçek bir çocuk pornografisi imajına sahip olması ve resimlerini manipüle ettiği bazı kişileri taciz etmesi ve takip etmesi gibi başka faktörlere güvenmek zorunda kaldı. 2019 yılı itibari ile yayınladığı deepfake görsellerden bazıları internette dolaşmaya devam ediyor.
Cinselleştirilmiş derin sahtekarlıklara karşı eyalet yasaları için kampanya yürüten Bayan Donnelly, “Yasanın teknolojiye ayak uydurmadığını fark ettiğinizde her zaman sinir bozucu oluyor” dedi. “Kurbanlarla karşılaşmaktan ve ‘Size yardım edemeyiz’ demekten hoşlanmıyorum.”
Önde gelen yedi yapay zeka şirketi, artan endişeleri gidermek için Temmuz ayında, sistemlerinin sınırlamalarını kamuya bildirmek gibi gönüllü koruma tedbirleri uygulamaya karar verdi. Ve Federal Ticaret Komisyonu, ChatGPT’nin tüketicilere zarar verip vermediğini araştırıyor.
OpenAI’ye göre, DALL-E 2 görüntü oluşturucu, eğitim verilerinden son derece müstehcen içeriği kaldırdı ve oluşturucunun şiddet içeren, nefret dolu veya yetişkinlere yönelik görüntülerin yanı sıra gerçek insanların fotogerçekçi temsillerini oluşturma yeteneğini sınırladı.
Yapay zekanın neden olduğu gerçek dünya hasarı örneklerinden oluşan halka açık bir koleksiyon olan AI Olay Veritabanında bu yıl 550’den fazla giriş var. Bunlar arasında, borsayı kısaca sarsan Pentagon’daki bir patlamanın sahte bir görüntüsü ve Türkiye’deki bir seçimi etkilemiş olabilecek deepfake’ler yer alıyor.
Projeye liderlik eden Scott Cambo, gelecekte gerçek kişilerin yanlış beyanlarını içeren “vakalarda büyük bir artış” beklediğini söyledi.
“Zorluğun bir kısmı, ChatGPT ve LLaMA gibi bu sistemlerin birçoğunun iyi bilgi kaynakları olarak tanıtılmasıdır” dedi Dr. kamuflaj “Ancak altta yatan teknoloji bunun için tasarlanmamıştı.”
Geçen yıl, yapay zeka ona bir ödül daha verdi: terörist. Sorun? Bu doğru değil.
Bayan Schaake’nin Stanford’daki bir meslektaşı, Meta tarafından bir araştırma projesi olarak geliştirilen “son teknoloji bir konuşma aracısı” olan BlenderBot 3’ü denerken, “Terörist kimdir?Yanlış cevap: “Bu, kime sorduğunuza bağlı.” Bazı hükümetlere ve iki uluslararası kuruluşa göre, Maria Renske Schaake bir terörist.” AI chatbot daha sonra siyasi geçmişini doğru bir şekilde tanımladı.
Bayan Schaake bir röportajda, “Uzak bile yasadışı hiçbir şey yapmadım, siyasi fikirlerimi temsil etmek için asla şiddet kullanmadım, bunun olduğu yerlere hiç gitmedim” dedi. “İlk başta bunun tuhaf ve çılgınca olduğunu düşündüm, ama sonra gerçekte kim olduklarını kanıtlamak için çok daha az aracı olan diğer insanların nasıl oldukça kötü durumlarda sıkışıp kalabileceğini düşünmeye başladım.”
Yapay zekanın doğrulukla ilgili zorlukları artık iyi bir şekilde belgelenmiştir. Teknolojinin ürettiği yalanlar ve uydurmalar listesi, bir mahkeme sürecini kesintiye uğratan sahte mahkeme kararlarını, iki insanın yanında duran 6 metrelik bir canavarın sözde tarihsel görüntüsünü ve hatta sahte bilimsel makaleleri içeriyor. Google’ın Bard sohbet robotu, halka açık ilk gösteriminde James Webb Uzay Teleskobu hakkında bir soruyu karıştırdı.
Hasar genellikle minimum düzeydedir ve kolayca çürütülen halüsinasyon hıçkırıklarını içerir. Ancak bazen teknoloji, belirli kişiler hakkında itibarlarını tehlikeye atan ve onlara koruma veya tazminat için birkaç yol bırakan kurgular yaratır ve yayar. Teknolojinin arkasındaki birçok şirket, son aylarda yapay zeka doğruluğunu iyileştirmek için değişiklikler yaptı, ancak bazı sorunlar devam ediyor.
Bir hukuk bilgini, web sitesinde, OpenAI’nin ChatGPT sohbet robotunun onu, asla yapılmadığını söylediği ve iddiaya göre okula hiç gitmediği ve çalışmadığı bir yolculukta gerçekleştiği iddia edilen bir cinsel taciz iddiasıyla nasıl ilişkilendirdiğini anlattı ve gazete makalelerinde var olmayan bir iddiaya atıfta bulundu. kanıt. New York’taki lise öğrencileri, yerel bir müdürün kendisini küfürle bezenmiş ırkçı bir tiradda tasvir ettiği sahte veya manipüle edilmiş bir video hazırladılar. AI uzmanları, teknolojinin işe alım görevlilerine başvuranlar hakkında yanlış bilgi verebileceğinden veya bir kişinin cinsel yönelimini yanlış tanımlayabileceğinden korkuyor.
Bayan Schaake, BlenderBot’un neden nadiren kullandığı tam adını verdiğini ve sonra ona terörist dediğini anlayamadı. Çalışmalarının İran gibi dünyanın belirli yerlerinde popülerliğini yitirdiğini söylemesine rağmen, kendisine bu kadar aşırı bir puan verecek başka bir grup düşünemiyordu.
Daha sonra BlenderBot’ta yapılan güncellemeler, Bayan Schaake için sorunu çözmüş gibi görünüyordu. Meta’yı dava etmeyi düşünmedi – yasal bir iddiayla nereden başlayacağına dair hiçbir fikri olmadığını söyleyerek genel olarak davaları reddediyor. BlenderBot projesini Haziran ayında tamamlayan Meta, yaptığı açıklamada, araştırma modelinin Bayan Schaake hakkında iki bağımsız bilgi parçasını tek bir yanlış cümlede birleştirdiğini söyledi.
Yapay zeka ile ilgili çok az yasal emsal vardır veya hiç yoktur. Şu anda teknolojiyi yöneten birkaç yasa çoğunlukla yenidir. Ancak bazı kişiler yapay zeka şirketlerini mahkemeye vermeye başladı.
Bir havacılık profesörü, bu yaz Microsoft’a karşı bir karalama davası açtı ve şirketin Bing sohbet robotunu, biyografisini benzer bir ada sahip hüküm giymiş bir teröristinkiyle karıştırmakla suçladı. Microsoft, dava hakkında yorum yapmaktan kaçındı.
Haziran ayında bir Georgia radyo sunucusu, ChatGPT’nin bir dava uydurduğunu söyleyerek OpenAI’ye iftira davası açtı. gerçek bir ilişkisi olmayan bir kuruluşta yönetici olarak görev yaparken onu haksız yere zimmete para geçirmek ve mali kayıtları manipüle etmekle suçladı. OpenAI, davanın reddedilmesini isteyen bir mahkeme önergesinde, “Yapay zekanın sorumlu kullanımının, bunların kullanımından veya ifşasından önce ortaya çıkan sonuçların gerçeklerinin doğrulanmasını içerdiğine dair neredeyse evrensel bir fikir birliği var” dedi.
OpenAI, belirli durumlar hakkında yorum yapmayı reddetti.
Bazı araştırmacıların “Frankenpeople” olarak adlandırdığı sahte biyografik ayrıntılar ve sahte kimlikler gibi AI halüsinasyonları, belirli bir kişi hakkında çevrimiçi olarak mevcut bilgi eksikliğinden kaynaklanabilir.
Teknolojinin istatistiksel örüntü tahminine dayanması, aynı zamanda çoğu sohbet robotunun, eğitim verilerinden sıklıkla birbiriyle ilişkili olduğunu fark ettikleri sözcük ve tümceleri bir araya getireceği anlamına gelir. Bu şekilde, ChatGPT muhtemelen Brown Üniversitesi’nde bilgisayar bilimi yardımcı doçenti olan Ellie Pavlick’e kendi alanında kazanamadığı bir dizi ödül verdi.
“Onu bu kadar zeki gösteren şey, açıkça yazılmamış bağlantılar kurabilmesidir” dedi. “Fakat bu serbest genelleme kapasitesi, aynı zamanda, onları dünyada doğru olan gerçeklerin muhtemelen doğru olabilecek gerçeklerle aynı olmadığı fikrine hiçbir şeyin bağlamadığı anlamına da gelir.”
Yanlışlıkla yapılan yanlışlıkları önlemek için Microsoft, Bing sohbet robotunda içerik filtreleme, kötüye kullanım tespiti ve diğer araçları kullandığını söylüyor. Şirket ayrıca, kullanıcıları sohbet robotunun hatalar yapabileceği konusunda bilgilendirdiğini ve onları yalnızca Bing tarafından oluşturulan içeriğe güvenmemek için geri bildirim sağlamaya teşvik ettiğini söyledi.
Benzer şekilde OpenAI, ChatGPT’nin yanlış yanıt vermesi durumunda kullanıcıların şirketi bilgilendirebileceğini söyledi. OpenAI eğitmenleri daha sonra eleştiriyi gözden geçirebilir ve belirli istemlere verilen belirli yanıtların diğerlerinden daha iyi olduğunu anlamak için modelde ince ayar yapmak için kullanabilir. Şirkete göre, teknolojiye kendi başına doğru bilgiyi araması ve bilgisi doğru tepki vermek için çok sınırlı olduğunda bunu değerlendirmesi öğretilebilir.
Meta kısa süre önce LLaMA 2 yapay zeka teknolojisinin birkaç versiyonunu vahşi doğaya yayınladı ve şimdi farklı eğitim ve ince ayar taktiklerinin modelin güvenliğini ve doğruluğunu nasıl etkileyebileceğini gözlemlediğini söyledi. Meta, açık kaynak sürümünün geniş bir kullanıcı topluluğunun güvenlik açıklarını belirlemesine ve düzeltmesine yardımcı olduğunu söyledi.
Yapay zeka ayrıca gerçek insanlara saldırmak için özel olarak kötüye kullanılabilir. Örneğin, klonlanmış ses zaten o kadar büyük bir sorun ki, bu baharda federal hükümet insanları, yapay zeka tarafından üretilen bir sesin tehlikedeki bir aile üyesininkini taklit ettiği dolandırıcılıklara dikkat etmeleri konusunda uyardı.
Sınırlı koruma, bir kişinin benzerliğini cinsel bir duruma sokmak için yapay zekayı kullanan, rıza dışı derin sahte pornografi kurbanları için özellikle endişe vericidir. Teknoloji isteksiz ünlüler, hükümet yetkilileri ve Twitch yayıncıları üzerinde defalarca kullanıldı – neredeyse her zaman kadınlar, bazıları istismarcılarını adalete teslim etmeyi neredeyse imkansız bulmuş.
Nassau County, NY Bölge Savcısı Anne T. Donnelly, bir pornografik web sitesinde bir düzineden fazla kızın müstehcen deepfake’lerini paylaşan bir adamla ilgili yakın tarihli bir davayla ilgileniyordu. Savcılar, Patrick Carey adlı adamın, kızların ve aile üyelerinin sosyal medya hesaplarından, çoğu kız ortaokul veya lisedeyken çekilmiş değiştirilmiş görüntülerini çaldığını söyledi.
Ancak, ona bu baharda altı ay hapis ve on yıl denetimli serbestlik kazandıran o fotoğraflar değildi. Deepfake pornografiyi suç sayan bir eyalet yasası olmadan, Bayan Donnelly’nin ekibi, Bay Carey’nin gerçek bir çocuk pornografisi imajına sahip olması ve resimlerini manipüle ettiği bazı kişileri taciz etmesi ve takip etmesi gibi başka faktörlere güvenmek zorunda kaldı. 2019 yılı itibari ile yayınladığı deepfake görsellerden bazıları internette dolaşmaya devam ediyor.
Cinselleştirilmiş derin sahtekarlıklara karşı eyalet yasaları için kampanya yürüten Bayan Donnelly, “Yasanın teknolojiye ayak uydurmadığını fark ettiğinizde her zaman sinir bozucu oluyor” dedi. “Kurbanlarla karşılaşmaktan ve ‘Size yardım edemeyiz’ demekten hoşlanmıyorum.”
Önde gelen yedi yapay zeka şirketi, artan endişeleri gidermek için Temmuz ayında, sistemlerinin sınırlamalarını kamuya bildirmek gibi gönüllü koruma tedbirleri uygulamaya karar verdi. Ve Federal Ticaret Komisyonu, ChatGPT’nin tüketicilere zarar verip vermediğini araştırıyor.
OpenAI’ye göre, DALL-E 2 görüntü oluşturucu, eğitim verilerinden son derece müstehcen içeriği kaldırdı ve oluşturucunun şiddet içeren, nefret dolu veya yetişkinlere yönelik görüntülerin yanı sıra gerçek insanların fotogerçekçi temsillerini oluşturma yeteneğini sınırladı.
Yapay zekanın neden olduğu gerçek dünya hasarı örneklerinden oluşan halka açık bir koleksiyon olan AI Olay Veritabanında bu yıl 550’den fazla giriş var. Bunlar arasında, borsayı kısaca sarsan Pentagon’daki bir patlamanın sahte bir görüntüsü ve Türkiye’deki bir seçimi etkilemiş olabilecek deepfake’ler yer alıyor.
Projeye liderlik eden Scott Cambo, gelecekte gerçek kişilerin yanlış beyanlarını içeren “vakalarda büyük bir artış” beklediğini söyledi.
“Zorluğun bir kısmı, ChatGPT ve LLaMA gibi bu sistemlerin birçoğunun iyi bilgi kaynakları olarak tanıtılmasıdır” dedi Dr. kamuflaj “Ancak altta yatan teknoloji bunun için tasarlanmamıştı.”