Yapay Zeka Güncellemesi Derinlemesine İnceleme: Yapay Zeka kendinin farkında mıdır?

Aramizda

Aktif Üye
Geçen yaz, dünyanın Chat GPT sayesinde üretken yapay zeka ile nelerin mümkün olabileceğinin farkına varmasından birkaç ay önce, Blake Lemoine’in hikayesi medyaya yansıdı. Google mühendisi, Google’ın AI LaMDA’sının bilinç geliştirdiğinden emindi.

Reklamcılık



O zamanlar, herhangi birimizin yapay zeka ile konuşmaya başlamasından önce, her şeyi göz ardı etmek nispeten kolaydı. Artık disiplinlerarası bir araştırma ekibi, bilinci gösteren özelliklerin bir listesini hazırladı ve mevcut yapay zeka sistemlerini bunlar üzerinde test etti. Bugünkü konuğum MIT Technology Review’dan Wolfgang Stieler makaleye daha yakından baktı.



Her şeyden önce kötü haber: Bilincin net bir tanımı yok, yalnızca çeşitli, bazen oldukça felsefi teoriler var. “Araştırma ekibi çeşitli teorileri inceledi ve bunları bilincin belirli özelliklerini belirlemek için kullandı. Daha sonra, bilinçli bir sistemin sahip olabileceği bu özelliklere sahip olup olmadıklarını görmek için DeepMind’dan GPT-3, Palm-E veya AdA gibi yaygın yapay zeka modellerini test ettiler. şu ya da bu teorinin sahip olması gerekirdi” diye açıklıyor Stieler. Tüm teorilere göre modellerin bazı gereksinimleri karşıladığı, ancak hepsini karşılamadığı ortaya çıktı.

TR’deki meslektaşım, “Örneğin, küresel çalışma alanı teorisine göre GPT-3’ün bilinçli bir sistem olduğunu şimdi söyleyemezsiniz, ancak bu teoriye göre bireysel işaretlere sahiptir, ancak gerekli tüm işaretlere sahip değildir” diye vurguluyor. “Yazarlara göre bu, xy teorisine göre bilince benzer bir şeye sahip bir yazılım yaratabileceğimizi açıkça gösteriyor.”

Bu tez tamamen şaşırtıcı değil. Araştırmanın baş yazarı filozof Patrick Butlin, yıllardır insanlığa yönelik “varoluşsal tehditleri” araştıran Oxford’daki İnsanlığın Geleceği Enstitüsü’nün üyesidir. Diğer şeylerin yanı sıra, Silikon Vadisi’nin önde gelen isimlerinin, “insan benzeri yeteneklere sahip yapay zeka sistemlerinin toplum ve insanlık için büyük bir risk oluşturması” nedeniyle büyük dil modellerinin geliştirilmesine altı ay süreyle ara verilmesi çağrısında bulunduğu açık bir mektup başlattı. Bilinçli yapay zeka olasılığı programa oldukça iyi uyuyor.

Ancak Stieler, amacın her zaman insanın düşünce süreçlerini taklit eden sistemler inşa etmek olduğunu da açıklıyor. “Bunun nasıl çalıştığını, zekanın nasıl çalıştığını, insan beyninin nasıl çalıştığını bilmek istiyorum ve bunu anlayabilmem için onu gerçekten yeniden yaratabilmem gerektiğini söyleyen yapay zeka araştırmacıları her zaman olmuştur.” Büyük dil modellerinin bilinç belirtileri gösterdikten sonra gerçekten de gerçek zeka kıvılcımı gösterip göstermediğine bilimde henüz karar verilmedi.


(igr)



Haberin Sonu