Aramizda
Aktif Üye
OpenAI: ABD Tüketiciyi Koruma Dairesi İtalya’yı araştıracak ChatGPT’yi engelliyor
Kâr amacı gütmeyen bir araştırma kuruluşu, rekabet hukuku ve tüketicinin korunmasından sorumlu ABD Federal Ticaret Komisyonu’ndan (FTC) OpenAI’yi soruşturmasını istedi. Yapay Zeka ve Dijital Politika Merkezi (kısaca Politika Merkezi) bu hafta resmi bir şikayette bulundu. Temel iddia, OpenAI’nin GPT-4’ü piyasaya sürmesinin ABD ticaret yasasını ihlal ettiğidir. Ürün insanları aldatır ve tehlikeye atar, taraflıdır ve özel hayat ve kamu güvenliği için risk oluşturur.
ABD federal kurumu rekabete aykırı uygulamalara karşı çıkıyor
46 sayfalık belgede Politika Merkezi, federal kurum yetkililerini OpenAI tarafından oluşturulan üretken AI sistemlerini araştırmaya ve gerekirse düzenlemeye çağırıyor, mektup kamuya açık. Burada hitap edilen Federal Ticaret Komisyonu, Washington, DC merkezli bağımsız olarak çalışan bir federal otoritedir. Yetkileri, ABD’de tüketicinin korunmasını da düzenleyerek bir rekabet otoritesinin görevlerinin ötesine geçer.
Tüketicilerden, kuruluşlardan veya şirketlerden doğrudan şikayet gelmesi durumunda, yetkili makam bireysel şirketlere karşı işlem yapar. Ayrıca Kongre’den gelen sorulara yanıt olarak veya medyadaki yayınlardan sonra müdahale edebilir. Kurumun amacı, rekabetçi bir piyasanın işleyişini sağlamak ve haksız veya aldatıcı rekabete aykırı uygulamalara karşı koymaktır.
OpenAI, sorumluluk üstlenmeden risklere karşı uyarır
Dezenformasyon ve manipülasyon kampanyaları, konvansiyonel ve konvansiyonel olmayan silahların çoğalması ve siber güvenlik, OpenAI’nin kendisinin de kabul ettiği özel tehditler olarak görülüyor. AI şirketinin kendisi, AI sistemlerinin ideolojileri, dünya görüşlerini, gerçekleri ve gerçek olmayanları yaymak ve sağlamlaştırmak için önemli bir potansiyele sahip olduğu konusunda uyardı. Politika Merkezi, OpenAI’nin kendi AI sisteminin kullanılmasından kaynaklanan sonuçlar ve zararlar için herhangi bir sorumluluk kabul etmediğini özellikle eleştiriyor.
ABD otoritesi, ürünlerde yapay zeka kullanımını birkaç koşula tabi hale getirdi: şeffaflık, açıklanabilirlik, adalet, ampirik bir temel ve izlenebilirlik ile açık sorumluluk (sorumlu hesap verebilirlik), bu da hasar durumunda hem sorumluluk hem de yükümlülük ile sonuçlanır. . Şikayete göre GPT-4 bu koşulların hiçbirini karşılamıyor, bu nedenle ajansın müdahale etme zamanı geldi. Politika Merkezi, Amerika Birleşik Devletleri’nde piyasaya çıkan ticari AI ürünlerinin bağımsız gözetimini ve değerlendirilmesini önermektedir. Tüketicileri, şirketleri ve ticareti bir bütün olarak korumak için önlemler alınması gerekiyor ve AI ürünlerinin OpenAI tarafından daha fazla yayınlanması engellenmelidir.
Yapay Zeka ve Dijital Politika Merkezi, 60 ülkeden yapay zeka düzenleme uzmanları ve hukukçulardan oluşan küresel bir ağı kapsayan, Washington, DC merkezli, kar amacı gütmeyen bir araştırma kuruluşudur. Politika Merkezi, AI düzenlemesi alanında (geleceğin AI politika liderleri) karar vericiler için profesyonel eğitim sunar. Kuruluş, ABD eyalet hükümetlerine ve uluslararası kuruluşlara yapay zeka ve gelişmekte olan teknolojilerle ilgili düzenleyici kararlar konusunda tavsiyelerde bulunuyor.
ayrıca oku
Daha fazla göster
daha az göster
Algoritmik ayrımcılığa karşı
ABD makamı, Şubat ayında AI ile reklam yalanları konusunda uyarıda bulunmuştu ve sağlayıcıların pazardaki varlığına eleştirel bir bakış attı. O sırada ABD’de iş yapan şirketleri, yeni ürünler piyasaya sürülmeden önce bile Nisan 2023’ten itibaren (“Şirketinizin AI kullanımında gerçeği, adaleti ve eşitliği hedeflemek”) resmi AI yönergelerine uymaları konusunda uyardı. Ekim 2022’de ABD hükümeti, algoritmalar tarafından ayrımcılığı önlemeyi amaçlayan AI çağı için olası bir temel haklar şartı olan “ABD AI Hakları Yasası” planını başlattı. Verilerin korunması ve açıklanabilirlik burada belirtilen ilkeler arasındadır.
Her iki belgenin de ortak noktası, doğrudan yasal bir güce sahip olmaması, örnek teşkil etmesidir. Federal Ticaret Komisyonu, 2021’den beri BT sektöründeki ürün ve hizmetler için yeni spesifikasyonlar geliştiriyor (“FTC, Ticari Gözetim ve Gevşek Veri Güvenliği Uygulamalarını Sıkılaştıran Kuralları Araştırıyor”). Yaklaşan AI Yasasını çevreleyen AB’deki yasama sürecine benzer şekilde, risklerin değerlendirilmesi ve sınıflandırılması, ortaya çıkan mevzuatın merkezinde yer almaktadır. ChatGPT gibi yapay zeka uygulamalarına yönelik olası bir yasak havada.
İtalyan Veri Koruma Kurumu ChatGPT’yi askıya aldı
İtalya, ChatGPT’yi “bir sonraki duyuruya kadar” engelledi ve OpenAI, veri koruma nedenleriyle orada bir milyon para cezasıyla tehdit edildi. İtalyan veri koruma yetkilisi Garante per la Protezione dei Dati Personali (kısaca “Garante della gizlilik”), üretken yapay zeka sohbet robotunun kullanımını engelleyen dünyadaki ilk yetkilidir. Kısıtlayıcı önlemin nedeni, 20 Mart’ta diğer kullanıcıların sohbet geçmişlerini ve ödeme bilgilerini görünür kılan OpenAI tarafında bir güvenlik sorunuydu. Kişisel verilerin “eğitim amaçlı” büyük çapta depolanması ve kullanılması şeffaf değildir ve AB’de kişisel verilerin korunmasına uygun değildir. Reşit olmayanları rahatsız edici içerikten korumak için yaş filtresi de yoktur. Avukat ve veri koruma uzmanı Guido Scorza, kendi blogunda ve IT portalı Wired’da otoriteden iki dilde OpenAI’nin koruyucu önlemleri uygulamak ve “sorunu kontrol altına almak” için görünüşe göre üç haftası var.
Scorza’nın Wired’a açıkladığı gibi, yasak geçici bir önlem. Bu, kişisel verilerin işlenmesi ile ilgilidir. ChatGPT kişisel veriler olmadan çalışıyorsa, daha fazla kullanım sorun olmaz. Aslında OpenAI, yazılımına İtalya’dan erişimi engellemek veya en azından kişisel veri içermeyen işlevlerle sınırlamak zorunda kalacak. 30 Mart tarihli kararın yayınlanmasının ardından ne kadar zaman geçeceği bilinmiyor ve OpenAI’nin talebe uyup uymayacağı da hâlâ belirsiz. Ayrıca, bağlantının İtalya dışındaki diğer ağlara yönlendirilmesine izin veren sanal özel ağlar (VPN) üzerinden bağlantılara müdahale etmek mümkün değildir, böylece proxy tarafından olası engelleme atlanır. Karar, Garante della Privacy’nin belgeler alanında iki dilde (İtalyanca ve İngilizce) mevcuttur.
Gerçek riskler ve bilim kurgu senaryoları
Bu bağlamda açık bir mektup dalgalanıyor: Future of Life Enstitüsü tarafından yayınlanan manifesto, büyük AI sistemlerinin riskleri sorusunu gündeme getiriyor ve en az altı ay süreyle bir moratoryum çağrısı yapıyor. 1700’den fazla parça AI ve teknoloji dünyasının önde gelen isimleri çağrıyı destekliyor halk. Uzmanlar ikiye bölünmüş durumda: Büyük AI modelleri üzerinde yaklaşık altı aylık çalışma yeterli değilken, diğerleri risklerin üstesinden gelmek ve OpenAI ve GPT-4’ü yakalamak için zorunlu bir mola yerine hızlandırma çağrısında bulunuyor.
Açık mektupla ilgili bir TIME yorumunda, tanınmış bir yapay zeka eleştirmeni Hizalama araştırmacısı, dramatik koşulları geleceğe yansıtacak, yapay zeka veri merkezlerini yok etmek için bombalama çağrısı yapacak ve satılan tüm yapay zeka etkin GPU’ların izlenmesini önerecek kadar ileri gitti — Eliezer Yudkowsky’nin açıklamaları bilim kurgu için olgunlaşmış durumda.
Araştırma ve rekabet kadar güvenliği de önemseyen daha ılımlı sesler, belki de Büyük Ölçekli Yapay Zeka Açık Ağı LAION’dan gelen bir dilekçede bulunabilir: Üyeleri, AI araştırması ve büyük açık kaynakların eğitimi için bir CERN önermektedir – önce modeller. Dilekçe, okumaya değer araştırmaya dayalı bir gerekçenin yanı sıra yapay zeka riskleri hakkında devam eden tartışmaya ilişkin bakış açıları ve odak noktaları içeriyor. bu Her iki tarafın argümanlarıyla ilgilenmek objektif bir değerlendirmeye kendi başınıza gelmeniz yararlı olabilir.
ayrıca oku
Daha fazla göster
daha az göster
güncellemeler
03/31/2023
20:00
Saat
İtalyan kaynaklarına göre İtalya’da ChatGPT’nin askıya alınmasıyla ilgili bölüm güncellendi. OpenAI, İtalya için ülke erişimini engelleme talebi aldı. Uygulamanın kişisel veri gerektirmeyen işlevleri, İtalyan veri koruma makamının kararından muaftır. ABD’li şirketin buna uyup uymadığı ve ne ölçüde uyacağı henüz belli değil.
(o)
Haberin Sonu