Son Haberler

“Yapay Genel Zeka”nın (AGI) pırıltıları, sadece bir illüzyon mu ?

-Makinelerin entelektüel düzeyde bizimle rekabet edebilecekleri bir noktaya yaklaşıyoruz muyuz? Stanford Üniversitesi araştırmacıları yeni makalelerinde, Büyük Dil Modeli’nin (Large Language Model ) görünüşte ortaya çıkan yeteneklerinin, kusurlu ölçümlerden kaynaklanan “seraplar” olabileceğini savunuyorlar.

“Yapay zekanın babası” olarak anılan bilgisayar mühendisi Dr. Geoffrey Hinton, yapay zekanın potansiyel tehlikelerine dair konuşmak için Google’daki işinden ayrıldı.  New York Times’a konuşan Dr. Geoffrey Hinton, “Yapay zeka alanında kaydedilen ilerlemeler, toplum ve insanlık için derin riskler oluşturuyor. Teknoloji devleri arasındaki rekabet, şirketleri “tehlikeli hızlarda” yeni yapay zeka teknolojileri sunmaya, işleri riske atmaya ve yanlış bilgi yaymaya itiyor” dedi.

Yapay zeka (YZ) dünyasındaki son gelişmeler dünyayı büyüledi. OpenAI’nin ChatGPT aracının halka açık olarak piyasaya sürülmesi, özellikle daha önce yapay zekayı bugünün yaşamıyla çok az ilgisi olan geleceğin teknolojisi olarak görenler için ufuk açıcı oldu. Görünüşe göre Microsoft, OpenAI’ye 10 milyar dolar daha yatırım yapmaya hazır olduğundan, “Yapay Genel Zeka”ya (AGI) ne zaman ulaşacağımız sorusu giderek daha önemli hale geliyor. YGZ kavramı, YZ’nın herhangi bir bilişsel görevde insanlarla eşleşebildiği ya da onlardan daha iyi performans gösterebildiği noktayı ifade ediyor.

Yapay zeka sohbet robotlarının, insanlar kadar entelektüel görevleri tamamlamayı öğrenebilecekleri bir noktaya gelmek üzere olduğuna inanıyor musunuz?

YAPAY ZEKA İLE İLGİLİ GÖRÜŞLER, İDDİALAR…

Stanford Üniversitesi bilim adamlarından oluşan bir ekip, henüz hakem değerlendirmesi yapılmamış yeni bir makalede, gördüğümüz “Yapay Genel Zeka“nın (AGI) pırıltılarının yalnızca bir yanılsama olduğunu savunuyor.

Öte yandan, YZ şirketleri, dil modeli destekli YZ ve bunların “hızla ortaya çıkan” davranışları ya da YGZ (AGI)’nın erken belirtileri hakkında büyük iddialarda bulunuyor. Bu yılın başlarında, Microsoft araştırmacılarından oluşan bir ekip, GPT-4’ün erken bir sürümünün AGI’nin “kıvılcımlarını” gösterdiğini iddia etti. Daha sonra bir Google yöneticisi, şirketin sohbet robotu “BARD” ın gerekli eğitimi almadan sihirli bir şekilde Bengalce çevirmeyi öğrendiğini iddia etti.

Ancak gerçekten de makinelerin entelektüel düzeyde bizimle rekabet edebilecekleri bir noktaya yaklaşıyoruz muyuz? Stanford Üniversitesi araştırmacıları yeni makalelerinde, Büyük Dil Modeli’nin (Large Language Model ) görünüşte ortaya çıkan yeteneklerinin, kusurlu ölçümlerden kaynaklanan “seraplar” olabileceğini savunuyorlar. Yeni makalelerinde ortaya koydukları gibi, ortaya çıkan böylesi davranışları gördüklerini iddia eden insanlar, sürekli olarak, sadece boyutlarından dolayı daha fazla yeteneğe sahip olan büyük modelleri, doğası gereği daha az yetenekli olan daha küçük modellerle karşılaştırıyorlar, savı öne çıkıyor.

YAPAY ZEKA VE BEYZBOL ANALOJİSİ

Araştırmacılara göre, resme daha fazla veri ve daha az spesifik ölçümler dahil edildiğinde, görünüşte öngörülemeyen bu özellikler oldukça kestirilebilir hale gelir ve böylece bu beklentiyle yapılan yorumlar, etkili bir şekilde çürütür. Araştırmacılar, ortaya çıkan yeteneklere ilişkin mevcut iddiaların, ölçekli belirli görevlerde model davranışındaki temel değişiklikler değil, araştırma analizlerinin sonuçları olduğunu savunuyorlar. Başka bir deyişle, öngörülemeyen ölçümler kullanıldığında, öngörülemeyen sonuçlar elde edildiğini dile getiriyorlar.

YGZ (AGI)’nin ortaya çıkışını duyurmak için kullanılan bazı ölçütlerin ne kadar sorgulanabilir olduğunu göstermek için, Stanford araştırmacıları yararlı bir beyzbol analojisi kullandılar. “Beyzbol oyuncularını belirli bir mesafeden beyzbol vuruşu yapma yeteneklerine göre değerlendirdiğinizi hayal edin” diyorlar. “Her oyuncu için “ortalama vuruş mesafesi” gibi bir ölçü kullanırsak, oyuncuların puanlarının dağılımı muhtemelen düzgün ve sürekli görünecektir. Ancak, ‘bir oyuncunun ortalama vuruş  mesafesinin 100 metreyi aşıp aşmadığı’ gibi süreksiz bir ölçü seçersek, o zaman birçok oyuncu 0 (sıfır) puan alırken, yalnızca en iyi oyuncular bir puan alacak.” Bunu dile getirirken, her iki ölçüm de geçerlidir diye ekliyorlar, “ancak ikinci ölçüm kesintili bir sonuç verdiğinde şaşırmamak önemlidir” şeklinde vurguluyorlar.

YAPAY GENEL ZEKA KIVILCIMLARINI KULLANMAK, PAZARLAMA AMAÇLARI İÇİN PEK DE KÖTÜ DEĞİL

Bu olgunun, en azından kısmen, YZ alanında çalışan bazı bilim adamlarının makinelerinde görmek istediklerini görmelerine yorulabileceğini söylemek büyük olasılıkla doğru olacaktır. Ne de olsa, yapılan çalışmada geliştirilen teknolojinin böyle bir yetenek ve özellikler geliştirmiş olabileceği fikrinin çekici olduğu kabul edilebilir. Bununla birlikte, bu amaçla, var olsun ya da olmasın bu ortaya çıkan yetenek ve özellikler, bazı endişe verici sonuçları da beraberinde getirdikleri için heyecan verici oldukları kadar da düşündürücüdürler. Bir makine ortaya çıkan böylesi bir özellik gösterdiğinde, bu resmen kontrolü kaybettiğimiz anlamına geliyor mu ? Ve tüm bunlar, şüphesiz teknoloji etrafında para kazandırma amaçlı aldatıcı reklama dönüşüyor. Başka bir deyişle, bu yeteneklerin ve özelliklerin ortaya çıktığını iddia ederek YGZ (AGI) kıvılcımlarını kullanmanın, pazarlama amaçları için pek de kötü olmadığı anlamına geliyor.

OPENAI CEO’SU SAM ALTMAN’A ELEŞTİRİ

YGZ terimi, son aylarda, tam da bunu yapmanın bir sonucu olarak finansal kazançları hızla artacak olanlar da dahil olmak üzere, çokça kullanıldı. Örneğin, OpenAI CEO’su Sam Altman konu hakkında uzun konuşmaları, sektördeki diğer kişiler tarafından “bilimkurgu pazarlama taktiğine” dönüştüğü için eleştirildi. Kısacası, “YGZ’nin parıltılarının” görüldüğünün iddia edilmesi, potansiyel olarak OpenAI’nin karlarını en üst düzeye çıkarma çabalarını destekliyor. Bu ve benzeri gelişmeleri takip ederken, göz önüne alınması gerekli bir şey varsa, özellikle yanıltıcı ya da doğrulanmamış olabilecek savlara şüpheyle bakmak ve birbirinden farklı bakış açılarından yorumlamak olurdu.

YAPAY ZEKANIN BABASI DR. GEOFFERY HINTON, YAPAY ZEKAYI ÇOK RİSKLİ GÖRÜYOR

Nisan ayının ilk günlerinde ABD medyası, “yapay zekanın babası” olarak anılan Bilgisayar Mühendisi Dr. Geoffrey Hinton’un, yapay zekanın potansiyel tehlikelerine dair konuşmak için Google’daki işinden ayrıldığını yazdı. New York Times’a konuşan Dr. Geoffrey Hinton, YZ alanında kaydedilen ilerlemelerin “toplum ve insanlık için derin riskler oluşturduğunu” belirtti. Tecrübeli mühendis, “Teknoloji devleri arasındaki rekabet şirketleri “tehlikeli hızlarda” yeni yapay zeka teknolojileri sunmaya, işleri riske atmaya ve yanlış bilgi yaymaya itiyor” dedi. Tesla’nın kurucusu ve Twitter’ın CEO’su Elon Musk ile bir grup teknoloji sektörü yöneticisi yazdıkları açık mektupta, OpenAI’ın yeni çıkarttığı GPT-4’ten daha güçlü YZ teknolojilerinin geliştirilmesine 6 ay ara verilmesi çağrısı yaptı. Çağrıya gerekçe olarak, “topluma ve insanlığa yönelik potansiyel riskler” gösterildi. Kâr amacı gütmeyen Future of Life Institute adlı kuruluş tarafından yayımlanan ve Elon Musk dahil 1000’den fazla kişinin imza attığı mektupta, bu tür tasarımlar için güvenlik protokolleri geliştirilene, uygulanana ve bağımsız uzmanlarca denetlenene dek, ileri yapay zeka araştırmalarının durdurulması istendi.

AB YAPAY ZEKA YASASI, KÜRESEL BİR STANDART HALİNE GELEBİLİR

Bu bağlamda Avrupa Birliği (AB) ve Birleşmiş Milletler (BM) gibi çatı kuruluşlar da başlattıkları çalışmaları hızla güncelliyorlar.

AB’nin 2018’deki Genel Veri Koruma Yönetmeliği (GDPR) gibi, AB Yapay Zeka Yasası da küresel bir standart haline gelebilir ve yapay zekanın nerede olursanız olun hayatınız üzerinde olumsuz değil de olumlu bir etkiye sahip olduğunu belirleyebilir. AB’nin YZ düzenlemesi şimdiden uluslararası alanda dalgalar yaratıyor. YZ Yasası, yapay zeka ile ilgili bir Avrupa Birliği yasası taslağıdır. Yasa taslağı YZ uygulamalarını, kabul edilemez bir risk oluşturan uygulamalar, yüksek risk oluşturan uygulamalar ve düşük risk oluşturan uygulamalar olarak üç risk kategorisine ayırır.

40’TAN FAZLA ÜLKE, UNESCO İLE BİRLİKTE ÇALIŞIYOR

Kasım 2021’de UNESCO Genel Konferansında 193 Üye Devlet, konuyla ilgili ilk küresel standart belirleme aracı olan Yapay Zeka Etiğine İlişkin Tavsiye Kararını kabul etti. Günümüzde, dünyanın tüm bölgelerindeki 40’tan fazla ülke, Tavsiye Kararı üzerine inşa edilerek ulusal düzeyde YZ denetimlerini ve dengeleri geliştirmek için UNESCO ile birlikte çalışıyor. UNESCO, tüm ülkeleri etik bir YZ oluşturmak için öncülük ettiği harekete katılmaya çağırıyor. Aralık 2023’te Slovenya’da düzenlenecek UNESCO Yapay Zeka Etiği Küresel Forumu’nda bir ilerleme raporu sunulacak.

Buraya kadar değindiğimiz konu, Yapay Dar Zeka (ANI) çerçevesinden ele alındı. Ancak Yapay Genel Zeka (AGI) penceresinden bakıldığında, etik, ahlak ve hukuk yönünden uygulama çok daha karmaşık boyutlarıyla karşılaşacağımız yadsınamaz bir gerçektir. YGZ için de benzer çalışmaları, 10-20 yıl beklemeden, bugünden başlatmak kaçınılmazdır.

Kaynakça: Stanford U. AI Review, BBC, Future of Life Institute, UNESCO, AI4Good.

Kamil Kazım Sarı

Fütüristler Derneği Başkan Yardımcısı

sari@turcomoney.com

 

 

Yorum yok

Yorum Yazın

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.

*

*

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.

İlgili Haberler

Site Haritası