Aramizda
Aktif Üye
OpenAI denetim kurulunun, çalışanlardan yapay zeka alanındaki son gelişmeler hakkında uyarıda bulunan bir mektup aldığı söyleniyor. Spesifik olarak, OpenAI’nin AGI’nin, yani insanlardan daha akıllı olduğu söylenen bir yapay genel zekanın geliştirilmesinde bir atılım elde ettiği söyleniyor. Reuters’e göre mektupta, gelişmelerin “insanlığa yönelik bir tehdit” olabileceği belirtiliyor. Geçen hafta kovulan Sam Altman’ın yerine geçen geçici patron Mira Murati’nin, çalışanlarla sözde “Proje Q*” hakkında konuştuğu ve mektuptan bahsettiği söyleniyor.
Reklamcılık
Ancak bu gelişmenin Altman’ın görevden alınmasına nasıl yol açtığı tam olarak belli değil. Verge, bir muhbirden böyle bir mektubun var olmadığını öğrendiğini yazıyor. Diğer kaynaklar mektubun yalnızca nihai bir neden olduğunu söylüyor; Reuters’in haberine göre, Altman’ın daha önce de birçok suiistimalde bulunduğu söyleniyor. Bu konuda çok az şey biliniyor; diğer şeylerin yanı sıra, sonuçlarını tahmin edemeden gelişmelerin pazarlanmasıyla ilgili olması gerekiyor. Denetleme kurulunun Altman’ı yeterince iletişim kurmamakla suçladığı da açık, bunun da kurulun görevlerini yerine getirmesine engel olduğu söyleniyor. Yine de bazı tartışmalardan sonra Altman CEO olarak geri döndü.
Gerçek tehditlerden pazarlamaya kadar yapay zeka uyarıları
Kovulmadan bir gün önce, Sam Altman’ın Asya-Pasifik Ekonomik İşbirliği Zirvesi’nde şunları söylediği bildirildi: “OpenAI tarihinde dört kez, en son geçtiğimiz birkaç hafta içinde, cehalet perdesini kaldırırken orada bulunma ayrıcalığına sahip oldum ve keşfin sınırlarını zorlamak ve bu benim hayatımın profesyonel onuru.” Bu, OpenAI’nin AGI’ye yönelik önemli adımlar attığına dair söylentileri ateşledi. OpenAI, bir YGZ’yi temelde insanlardan üstün olarak tanımlıyor.
Reuters’in isimsiz bir kaynaktan alıntı yaptığı haberine göre, “Proje Q*”nun belirli matematik problemlerini çözebilecek yeni bir yapay zeka modeli olduğu söyleniyor. Bunun, çalışanların bir YGZ’nin geliştirilmesi konusunda oldukça iyimser olmasını sağladığı söyleniyor; daha spesifik hale gelmedi.
Altman ve OpenAI, diğer şeylerin yanı sıra, onlar hakkında defalarca uyarıda bulunarak ürünlerini tanıtma konusunda çok başarılılar ve bu da elbette kendi önemlerini artırıyor. Yapay zekanın potansiyel riskleri çok çeşitlidir. Bunlar, adayların önyargı nedeniyle iş arama dışında bırakılmasından ortaya çıkabilecek sorunlardan, yapay zekanın barışa katkıda bulunduğuna inanması nedeniyle insanlığın yok olmasına veya benzer distopyalara kadar uzanıyor. Yapay zekayı salgın hastalıklar ve nükleer savaşlarla karşılaştıran bilim insanları var, diğerleri ise varoluşu tehdit eden bir yapay zekanın geliştirilmesinin hâlâ çok uzakta olduğuna inanıyor. Yapay zeka öncüsü Geoffrey Hinton geçtiğimiz günlerde yapay zeka hakkındaki uyarısında şunları söyledi: “Bunlar bizden tamamen farklı. Bazen sanki uzaylılar inmiş ve insanlar İngilizceyi çok iyi konuştukları için bunu fark etmemiş gibi düşünüyorum.”
Güncelleme
23 Kasım 2023
12:41
Saat
The Verge’ın böyle bir mektubun olmadığını yazdığını ekledik.
(emw)
Haberin Sonu
Reklamcılık
Ancak bu gelişmenin Altman’ın görevden alınmasına nasıl yol açtığı tam olarak belli değil. Verge, bir muhbirden böyle bir mektubun var olmadığını öğrendiğini yazıyor. Diğer kaynaklar mektubun yalnızca nihai bir neden olduğunu söylüyor; Reuters’in haberine göre, Altman’ın daha önce de birçok suiistimalde bulunduğu söyleniyor. Bu konuda çok az şey biliniyor; diğer şeylerin yanı sıra, sonuçlarını tahmin edemeden gelişmelerin pazarlanmasıyla ilgili olması gerekiyor. Denetleme kurulunun Altman’ı yeterince iletişim kurmamakla suçladığı da açık, bunun da kurulun görevlerini yerine getirmesine engel olduğu söyleniyor. Yine de bazı tartışmalardan sonra Altman CEO olarak geri döndü.
Gerçek tehditlerden pazarlamaya kadar yapay zeka uyarıları
Kovulmadan bir gün önce, Sam Altman’ın Asya-Pasifik Ekonomik İşbirliği Zirvesi’nde şunları söylediği bildirildi: “OpenAI tarihinde dört kez, en son geçtiğimiz birkaç hafta içinde, cehalet perdesini kaldırırken orada bulunma ayrıcalığına sahip oldum ve keşfin sınırlarını zorlamak ve bu benim hayatımın profesyonel onuru.” Bu, OpenAI’nin AGI’ye yönelik önemli adımlar attığına dair söylentileri ateşledi. OpenAI, bir YGZ’yi temelde insanlardan üstün olarak tanımlıyor.
Reuters’in isimsiz bir kaynaktan alıntı yaptığı haberine göre, “Proje Q*”nun belirli matematik problemlerini çözebilecek yeni bir yapay zeka modeli olduğu söyleniyor. Bunun, çalışanların bir YGZ’nin geliştirilmesi konusunda oldukça iyimser olmasını sağladığı söyleniyor; daha spesifik hale gelmedi.
Altman ve OpenAI, diğer şeylerin yanı sıra, onlar hakkında defalarca uyarıda bulunarak ürünlerini tanıtma konusunda çok başarılılar ve bu da elbette kendi önemlerini artırıyor. Yapay zekanın potansiyel riskleri çok çeşitlidir. Bunlar, adayların önyargı nedeniyle iş arama dışında bırakılmasından ortaya çıkabilecek sorunlardan, yapay zekanın barışa katkıda bulunduğuna inanması nedeniyle insanlığın yok olmasına veya benzer distopyalara kadar uzanıyor. Yapay zekayı salgın hastalıklar ve nükleer savaşlarla karşılaştıran bilim insanları var, diğerleri ise varoluşu tehdit eden bir yapay zekanın geliştirilmesinin hâlâ çok uzakta olduğuna inanıyor. Yapay zeka öncüsü Geoffrey Hinton geçtiğimiz günlerde yapay zeka hakkındaki uyarısında şunları söyledi: “Bunlar bizden tamamen farklı. Bazen sanki uzaylılar inmiş ve insanlar İngilizceyi çok iyi konuştukları için bunu fark etmemiş gibi düşünüyorum.”
Güncelleme
23 Kasım 2023
12:41
Saat
The Verge’ın böyle bir mektubun olmadığını yazdığını ekledik.
(emw)
Haberin Sonu