Kompakt AI güncellemesi: Ortada Kayıp, Tavşan R1, veri koruma, AI trafik ışığı

Aramizda

Aktif Üye


  1. Kompakt AI güncellemesi: Ortada Kayıp, Tavşan R1, veri koruma, AI trafik ışığı

Yeni eğitim, dil modellerini kullanarak uzun bağlamların işlenmesini geliştiriyor


Reklamcılık



Microsoft ve Çin üniversitelerinden araştırmacılar, dil modellerinin uzun bağlamları işleme biçimini iyileştirmek için veriye dayalı bir yaklaşım geliştirdiler. “Ortada kaybolma” olarak adlandırılan fenomen, bilginin genellikle bir bağlamın ortasında kaybolduğu, başlangıç ve bitişin iyi anlaşıldığı anlamına gelir.

“Bilgi Yoğun (IN2) Eğitimi” adı verilen yeni yöntem, önemli bilgilerin bağlam içinde rastgele yerleştirildiği sentetik soru-cevap verilerini kullanıyor. Sonuç olarak model, bilgiyi her konumdaki algılamayı, entegre etmeyi ve sonuç çıkarmayı öğrenir.

IN2'nin Mistral-7B modeline uygulanması, uzun bağlamlarda önemli bir performans artışıyla sonuçlandı. Ortaya çıkan FILM-7B modeli, daha küçük boyutuna rağmen GPT-4 Turbo gibi daha büyük modellere benzer veya hatta daha sağlam bir performans elde etti.

Bununla birlikte, kıyaslama sonuçlarının da gösterdiği gibi, “ortada kaybolma” sorunu devam ediyor. GPT-4 Turbo liderliğini sürdürüyor ancak uzun bağlamlarda ciddi zorluklar yaşıyor. Gelecekteki araştırmalar IN2'nin ne kadar iyi ölçeklenebileceğini ve geliştirilebileceğini gösterecek.



xAI altı milyar ABD doları alacak


Techcrunch'a göre, Elon Musk tarafından kurulan yapay zeka girişimi xAI, 18 milyar dolarlık ön değerlemeyle 6 milyar dolarlık finansman turunu tamamlamaya yaklaşıyor. Anlaşmaya aşina olan güvenilir bir kaynak Techcrunch'a finansman turunun önümüzdeki birkaç hafta içinde tamamlanmasının beklendiğini söyledi. Musk'ın uzun süredir arkadaşı olan Steve Jurvetson'un risk sermayesi fonu olan Sequoia Capital, Future Ventures gibi yatırımcıların yanı sıra kurucuları da Musk'un yakın çevresinden olan Valor Equity Partners ve Gigafund gibi yatırımcılar yer alıyor. Musk'un sosyal medya platformu X de yapay zeka şirketinde hisseye sahip olduğu için finansmandan yararlanıyor.

xAI, dijital ve fiziksel dünyaları birbirine bağlayarak kendisini diğer yapay zeka şirketlerinden farklılaştırmayı hedefliyor. Bunu yapmak için Musk'un Tesla, SpaceX, Boring Company ve Neuralink gibi diğer şirketlerinden eğitim verileri alıyor. Özellikle Tesla araç filosu ve insansı robot Optimus, xAI'deki yapay zeka gelişmelerinden yararlanabilir.

Yapay Zeka mucizesi olduğu varsayılan makine Tavşan R1'in ilk testleri


CES'te sunulan AI asistanı Rabbit R1, ilk test uzmanları tarafından AI Pin gibi benzer ürünlere göre bir gelişme olarak görülüyor ancak henüz o kadar olgun değil. Olumlu yönleri, alışılmamış donanım tasarımı ve iyi işleyen görüntü tanımadır.

Karmaşık görevler için hala kusurlu olan ses kontrolü, kısa pil ömrü ve bazen karmaşık operasyon eleştiriliyor. Yenilik tamamen yazılım tabanlı olduğundan, R1'in neden bir akıllı telefon uygulaması olarak değil de ayrı bir cihaz olarak tasarlandığı hala belirsizliğini koruyor.

Halen çözülmemiş önemli sorular, kişisel kullanıcı verilerinin işlenmesi ve Rabbit üreticisinin sunucularındaki bulut depolamanın güvenliğidir. Editör ekibimiz hâlâ kendi test cihazımızın Almanca konuşulan ülkelerde kullanılabilirliğini değerlendirmesini bekliyor.

OpenAI'ye karşı veri koruma şikayeti


Avusturyalı sivil haklar örgütü Noyb, OpenAI'ye karşı veri koruma yetkilisine şikayette bulundu. GDPR uyumluluğu için ChatGPT'nin arkasındaki dil modellerinde veri işlemenin incelenmesi, düzenlemelere uygunluğun sağlanmasına yönelik önlemler ve para cezası verilmesi çağrısında bulunuyor.

Noyb'a göre OpenAI, kişiler hakkındaki yanlış bilgileri düzeltemez ve verinin kaynağı ve saklanması hakkında ayrıntılı bilgi sağlayamaz. Bu, GDPR kapsamındaki düzeltme ve erişim hakkıyla çelişmektedir. Noyb, sistemler doğru ve şeffaf sonuçlar vermediğinde ciddi sonuçlarla karşılaşıyor.

2022'nin sonundan bu yana OpenAI, veri koruma sorunları nedeniyle defalarca eleştirildi ve ChatGPT İtalya'da geçici olarak engellendi. Üretken dil modellerinin halüsinasyonlarını kontrol etmek neredeyse imkansız olarak görülüyor.

Meta'nın yeni AI sohbet robotu ABD'li politikacılar hakkında yalanlar yayıyor


Meta'nın Llama 3 tabanlı yapay zeka sohbet robotu, birçok ABD milletvekiline karşı temelsiz cinsel taciz iddiaları uyduruyor ve bunları uydurma ayrıntılarla destekliyor. Bu, bir muhbirin ilgili ekran görüntüsünü göndermesinin ardından New York dergisi City & State tarafından gerçekleştirilen testlerle ortaya çıktı.

Chatbot, her iki partiden bir düzineden fazla politikacının adını “cinsel taciz” terimiyle birleştirerek, iddia edilen olaylara ve hiçbir zaman yürütülmemiş soruşturmalara ilişkin kurgusal hikayeler sundu. Yapay zeka düzenlemesinden sorumlu Senatörler Kristen Gonzalez ve Clyde Vanel de yalanlardan kurtulamadı.

Gonzalez, Meta gibi yanlış bilginin yayılmasında rol oynayan şirketler için yaptırım uygulanması çağrısında bulunuyor. Bir Meta sözcüsü, teknolojinin gelişiminin erken aşamalarına ve yapay zekanın oluşturduğu halüsinasyonları kontrol altına almanın zorluklarına dikkat çekti. Uyarıların potansiyel itibar zararını haklı çıkarmak için yeterli olup olmadığı, politikacılar ve yargı için açık bir soru olmaya devam ediyor.

AI sahte görselleri TikTok kullanıcılarını yanıltıyor


Yapay zeka sahteleri de TikTok'ta heyecan yaratıyor: Sevimli oyuncak şirketi Build-a-Bear'ın yeni bir “Şeytan Ayılar” serisi sunduğunu öne sürüyorlar. ABD'li oyuncak üreticisi şimdi sosyal medyada bir dizi yanlış raporla karşı karşıya. USA Today'e göre, sahte raporun kaynağı Mart ayının sonundaki “Kabak İmparatoriçesi” sayfasındaki hicivli bir Facebook paylaşımıdır. Ancak görüntülerin TikTok'ta ortaya çıkmasıyla bunun hiciv olduğuna dair ipucu kayboldu. Bazı TikTok kullanıcıları şeytani oyuncak ayıların gerçek olduğunu düşünerek şirketi eleştirdi. Ancak herkes aldatılmadı. Yorumlarda yapay zeka sahtekarlıklarına çok sayıda gönderme var ve bunların bazılarında görüntü hatalarının ayrıntılı analizleri de yer alıyor.

Bu örnek, özellikle sosyal medyadaki yapay zeka görüntülerinin risklerini bir kez daha gösteriyor: Bu kadar bariz bir hiciv bile aldatıcı olabiliyorsa, aldatma niyetini taşıyan gerçekçi sahtekarlıkların bu konuda kolaylıkla şansı var. Deneyimsiz kullanıcıların gerçeklik ile kurguyu birbirinden ayırması giderek zorlaşıyor; bu da şirketler ve kamusal söylem açısından potansiyel olarak tehlikeli sonuçlar doğurabiliyor. Algoritmalar ve otomatik filtreleme yöntemleri henüz işe yaramadığı için sosyal ağlar kendi başlarına ve sahtekarlıkları ortaya çıkarabilecek kullanıcıların elinde.

Hamm'da yapay zeka trafik ışıklarıyla ilgili öğrenme sorunları


Kuzey Ren-Vestfalya'nın Hamm şehri, Temmuz 2023'ten bu yana trafik kontrolü için yapay zeka kontrollü trafik ışıklarını test ediyor. İlk sistem büyük ölçüde sorunsuz çalışırken, yakın zamanda Ostwennemarstrasse'ye kurulan ikinci trafik ışığı, sürücüler için geçici olarak kalıcı olarak kırmızı renkte yanıyordu. yakınlarda yaya yok.

Yunex tarafından geliştirilen “awareAI” sistemi, kişisel verileri saklamadan yol kullanıcılarını kaydetmek ve yeşil aşamaları gerektiği gibi kontrol etmek için video kameralar ve algoritmalar kullanıyor. Üretici tarafından yapılan ayarlamalardan sonra sistem artık daha kararlı çalışıyor ancak devam eden çalışma sırasında hala daha fazla iyileştirme yapılması gerekiyor.

Giessen'de de Ekim 2023'ten bu yana, daha önce kazalara açık olan bir kavşakta yapay zekalı trafik ışıkları trafiği düzenliyor. Sorumlulara göre, yeni teknolojiyle şu ana kadar elde edilen deneyim, başlangıçtaki zorluklara rağmen genel olarak çok olumlu oldu.







Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerini inceliyoruz.








(igr)



Haberin Sonu