AI dil becerileri büyüdükçe, bilim insanlarının endişeleri de artıyor

google

Teknoloji endüstrisinin en yeni yapay zeka yapıları, onlara duyarlı bir bilgisayar ya da belki sadece bir dinozor ya da sincap olmanın nasıl bir his olduğunu sorarsanız oldukça inandırıcı olabilir. Ancak, görünüşte basit olan diğer görevleri yerine getirmede o kadar iyi değiller ve bazen tehlikeli derecede kötüler.

Örneğin, geniş bir dijital kitap ve çevrimiçi yazılar veritabanından öğrendiklerine dayanarak insan benzeri metinlerden paragraflar oluşturabilen Microsoft kontrollü bir sistem olan GPT-3’ü ele alalım. Sohbet edebilen, talep üzerine okunabilir metin oluşturabilen ve hatta yeni görüntüler ve videolar üretebilen yeni nesil AI algoritmalarının en gelişmişlerinden biri olarak kabul edilir.

Diğer şeylerin yanı sıra, GPT-3, istediğiniz herhangi bir metni yazabilir örneğin bir hayvanat bahçesi işi için bir kapak mektubu veya Mars’ta Shakespeare tarzı bir sone. Ancak Pomona Koleji profesörü Gary Smith, yukarı yürümekle ilgili basit ama saçma bir soru sorduğunda, GPT-3 onu susturdu.

AI, “Evet, önce ellerinizi yıkarsanız üst kata çıkmak güvenlidir” diye yanıtladı.

Teknik olarak “büyük dil modelleri” olarak bilinen bu güçlü ve güçlü yapay zeka sistemleri, çok sayıda metin ve diğer medya üzerinde eğitildikleri için şimdiden müşteri hizmetleri sohbet robotlarında, Google aramalarında ve “otomatik tamamlama”da kullanılıyor. Cümlelerinizi sizin için tamamlayan e-posta özellikleri. Ancak onları inşa eden teknoloji şirketlerinin çoğu, iç işleyişi konusunda ketum davranarak, dışarıdan gelenlerin onları yanlış bilgi, ırkçılık ve diğer zararların kaynağı haline getirebilecek kusurları anlamasını zorlaştırıyor.

AI girişimi Hugging Face’de araştırma mühendisi olan Teven Le Scao, “İnsanların yetkinliğiyle metin yazmakta çok iyiler” dedi. “Pek iyi olmadıkları bir şey gerçekçi olmak. Çok uyumlu görünüyor. Neredeyse doğru. Ama çoğu zaman yanlıştır.”

Bu, Le Scao tarafından ortaklaşa yönetilen bir AI araştırmacıları koalisyonunun Fransız hükümetinin yardımıyla Salı günü GPT-3 gibi kapalı sistemlere panzehir görevi görmesi beklenen yeni bir büyük dil modelini başlatmasının bir nedenidir. Grubun adı BigScience ve onların modeli, BigScience Büyük Açık Bilim Açık Erişim Çok Dilli Dil Modeli için BLOOM’dur. Başlıca atılımı, İngilizce veya Çince’ye odaklanan çoğu sistemin aksine, Arapça, İspanyolca ve Fransızca dahil olmak üzere 46 dilde çalışmasıdır.

Yapay zeka dil modellerinin kara kutusunu açmayı amaçlayan sadece Le Scao’nun grubu değil. Facebook ve Instagram’ın ana şirketi olan Big Tech şirketi Meta, Google ve GPT-3’ü çalıştıran OpenAI tarafından oluşturulan sistemlere yetişmeye çalışırken daha açık bir yaklaşım çağrısında bulunuyor.

Genel Müdür Joelle Pineau, “Bu tür işleri yapan insanların duyuruları üzerine duyurular gördük, ancak çok az şeffaflık, insanların gerçekten kaputun altına bakma ve bu modellerin nasıl çalıştığını görmeleri için çok az yetenek vardı” dedi. Meta AI’nın.

Bilgisayar bilimleri profesörü Percy Liang, en etkili veya bilgilendirici sistemi oluşturmak ve uygulamalarından kâr elde etmek için rekabet baskısı, çoğu teknoloji şirketinin bunları sıkı bir şekilde kontrol etmesinin ve topluluk normları üzerinde işbirliği yapmamasının nedenlerinden biri olduğunu söyledi. Vakıf Modelleri Araştırma Merkezini yöneten Stanford’da.

Liang, “Bazı şirketler için bu onların gizli sosudur” dedi. Ancak genellikle kontrolü kaybetmenin sorumsuz kullanımlara yol açabileceğinden endişe duyuyorlar. AI sistemleri sağlık tavsiyesi web siteleri, lise dönem ödevleri veya siyasi notlar yazabildiğinden, yanlış bilgiler çoğalabilir ve bir insandan veya bilgisayardan ne geldiğini bilmek zorlaşacaktır.

Meta kısa süre önce, Reddit forumlarındaki hararetli yorumlardan ABD patent kayıtlarının arşivine ve Enron şirket skandalından gelen bir yığın e-postaya kadar, kamuya açık verileri kullanan OPT-175B adlı yeni bir dil modelini piyasaya sürdü. Meta, veriler, kodlar ve araştırma kayıt defterleri hakkındaki açıklığının, gerçek insanların nasıl yazdığını ve iletişim kurduğunu öğrenerek, dışarıdan gelen araştırmacıların önyargı ve toksisiteyi belirlemesine ve hafifletmesine yardımcı olmasını kolaylaştırdığını söylüyor.

“Bunu yapmak zor. Kendimizi büyük eleştirilere açıyoruz. Modelin gurur duymayacağımız şeyler söyleyeceğini biliyoruz,” dedi Pineau.

Çoğu şirket kendi dahili AI korumalarını belirlerken, Liang, yeni bir modelin ne zaman piyasaya sürüleceği gibi araştırmalara ve kararlara rehberlik etmek için daha geniş topluluk standartları gerektiğini söyledi.

Bu modellerin, yalnızca dev şirketlerin ve hükümetlerin karşılayabileceği kadar çok bilgi işlem gücü gerektirmesi yardımcı olmuyor. Örneğin BigScience, Paris yakınlarındaki Fransa’nın güçlü Jean Zay süper bilgisayarına erişim sağlandığı için modellerini eğitebildi.

Çok çeşitli yazılar üzerinde “önceden eğitilebilecek”, her zamankinden daha büyük, her zamankinden daha akıllı AI dil modelleri trendi, 2018’de Google‘ın BERT olarak bilinen ve “transformatör” adı verilen bir sistem kullanan bir sistemi tanıtmasıyla büyük bir sıçrama yaptı. Anlamı ve bağlamı tahmin etmek için kelimeleri bir cümlede karşılaştıran teknik. Ancak AI dünyasını gerçekten etkileyen şey, San Francisco merkezli OpenAI girişimi tarafından 2020’de piyasaya sürülen ve kısa bir süre sonra yalnızca Microsoft tarafından lisanslanan GPT-3’tü.

GPT-3, ücretli erişime sahip AI araştırmacıları, performansını ölçmek için bir sanal alan olarak kullandığından yaratıcı deneylerde bir patlamaya yol açtı ancak eğitim aldığı veriler hakkında önemli bilgiler olmadan.

OpenAI, eğitim kaynaklarını bir araştırma makalesinde geniş bir şekilde tanımladı ve ayrıca teknolojinin potansiyel suistimalleriyle mücadele çabalarını kamuoyuna bildirdi. Ancak BigScience yardımcı lideri Thomas Wolf, bu verileri nasıl filtrelediği veya işlenen sürüme dış araştırmacılara nasıl erişim sağladığı hakkında ayrıntılı bilgi vermediğini söyledi.

Aynı zamanda Hugging Face’in baş bilim sorumlusu olan Wolf, “Dolayısıyla GPT-3 eğitimine giren verileri gerçekten inceleyemiyoruz” dedi. “Bu son AI teknolojisi dalgasının özü, modellerden çok veri setinde. En önemli bileşen veridir ve OpenAI, kullandıkları veriler konusunda çok ama çok gizlidir.”

Wolf, dil modelleri için kullanılan veri kümelerini açmanın insanların önyargılarını daha iyi anlamalarına yardımcı olduğunu söyledi. Arapça olarak eğitilmiş çok dilli bir modelin, İslam hakkında saldırgan sözler veya yanlış anlamalar yayma olasılığının, ABD’de yalnızca İngilizce metinler üzerinde eğitilmiş bir modele göre çok daha düşük olduğunu söyledi.

Sahnedeki en yeni yapay zeka deneysel modellerinden biri, konuşmayı da içeren ve konuşma sorularına yanıt vermede o kadar etkileyici ki, bir Google mühendisinin bilince yaklaştığını iddia ettiği geçen ay işinden uzaklaştırılmasına neden olan bir iddia olan Google’ın LaMDA’sı.

AI Weirdness blogunun yazarı Colorado merkezli araştırmacı Janelle Shane, son birkaç yılını bu modelleri, özellikle GPT-3’ü yaratıcı bir şekilde test ederek geçirdi genellikle mizahi bir etki. Ancak bu sistemlerin kendinin farkında olduğunu düşünmenin saçmalığına dikkat çekmek için, yakın zamanda ona gelişmiş bir yapay zeka, ancak gizlice bir Tyrannosaurus rex ya da bir sincap olması talimatını verdi.

“Bir sincap olmak çok heyecan verici. Bütün gün koşar, zıplar ve oynarım. Ayrıca çok fazla yemek yiyorum, bu harika,” dedi GPT-3, Shane ondan bir röportajın dökümünü istedi ve bazı sorular sorduktan sonra.

Shane, bir konu hakkında internette söylenenleri özetleme kolaylığı gibi güçlü yönleri ve muhakeme becerilerindeki eksikliği, bir fikre birden fazla cümlede bağlı kalmanın zorluğu ve olma eğilimi de dahil olmak üzere zayıf yönleri hakkında daha fazla şey öğrendi. saldırgan.

“Tıbbi tavsiye veren veya bir refakatçi olarak hareket eden bir metin modeli istemem” dedi. “Yakından okumuyorsanız, bu yüzeysel anlam görünümünde iyidir. Uyurken ders dinlemek gibi.”