Kompakt AI güncellemesi: MM1, Grok-1, sohbet isteklerinin şifresini çözme, eşik

Aramizda

Aktif Üye


  1. Kompakt AI güncellemesi: MM1, Grok-1, sohbet isteklerinin şifresini çözme, eşik

Apple'ın ilk çok modlu yapay zeka modeli MM1


Reklamcılık



Cupertino'da bu biraz zaman aldı ancak şimdi Apple, MM1'li ilk güçlü multimodal yapay zeka modelini tanıttı. MM1, Apple'ın ilk çok modlu yapay zeka modelidir ve bazı testlerde GPT-4-Vision ve Google Gemini'ye rakip olur. Bu modeller gibi MM1 de Transformer mimarisini temel alır ve resim-metin çiftleri, metin ve resim içeren belgeler ve düz metin verilerinin bir karışımı üzerinde eğitilmiştir. Apple araştırmacıları, yüksek görüntü çözünürlüğünün, görüntü işleme bölümünün gücünün (“görsel kodlayıcı” adı verilen) ve eğitim verisi miktarının iyi performans için özellikle önemli olduğunu buldu. MM1, 30 milyara kadar parametreyi ölçeklendirerek ve Uzman Karması (MoE) modellerini kullanarak, örneğin resim altyazıları oluştururken ve görsel soruları yanıtlarken ikna edici sonuçlar elde etti. MM1 ayrıca karmaşık soruları yanıtlamak veya tek bir görüntüden çıkarılamayacak sonuçlar çıkarmak için birden fazla görüntüden gelen bilgileri birleştirebilir (çoklu görüntü muhakemesi olarak adlandırılır). MM1, Apple'ın kompakt boyutuna rağmen GPT-4V ve Google Gemini gibi önde gelen yapay zeka sistemleriyle rekabet edebilecek güçlü, çok modlu bir yapay zeka modeli geliştirme yeteneğini gösteriyor. Bu, gelecekte diğer yapay zeka sistemleri için ciddi bir rakip haline gelebilir. Makale aynı zamanda eğitim süreçleri ve kullanılan eğitim verileri hakkında da derin bir bilgi sağlıyor; bu, şu anda yalnızca birkaç şirketin açıkladığı bir şey.







Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerini inceliyoruz.







AI modeli Grok-1 açık kaynak mevcut


Elon Musk'un yapay zeka şirketi xAI, Grok-1'i piyasaya sürdü. Apache 2.0 lisansı altında 314 milyar parametreyle bugüne kadarki en büyük açık kaynaklı Uzman Karması modelidir. Grok-1, Ekim 2023'te tamamlanan eğitim öncesi aşamadan kalma, rafine edilmemiş bir temel modeldir. Henüz sohbet veya talimat izleme gibi belirli uygulamalar için optimize edilmemiştir ve muhtemelen daha az güvenlik odaklıdır veya hiç değildir. xAI, modeli JAX ve Rust'a dayanan kendi teknoloji yığınıyla eğitti. Grok-1 hakkında daha fazla bilgiyi GitHub'da bulabilirsiniz. Grok-1, eski bir Google modelinden ayrı olarak bugüne kadar yayınlanmış en büyük açık kaynak dil modelidir. GPT-3.5 seviyesinde olduğu söyleniyor. Ancak önümüzdeki haftalar yalnızca açık kaynak topluluğunun modelden neler çıkarabileceğini gösterecek.

Yapay Zeka, Yapay Zeka sohbetlerini gizlice dinleyebilir


Seyahat noktalarından tıbbi bulguların olası etkilerine kadar her geçen gün daha fazla insan, kişisel ve bazen son derece hassas şeyleri araştırmak için yapay zekaları kullanıyor. Aktarımın güvenli olduğuna ve Hinz&Kunz'un o anda aklınızdan geçenleri okuyamayacağına güveniyorsunuz. Ben-Gurion Üniversitesi'ndeki araştırmacılar artık bu güvenliğin çoğu durumda garanti edilmediğini gösterdi. Haberler çevrimiçi güvenlik uzmanı Jürgen Schmidt, ChatGPT ve diğer GPT'lerden gelen yanıtları, şifrelenmiş iletilen verilerden şaşırtıcı derecede yüksek düzeyde güvenilirlikle yeniden oluşturabildikleri için şunları bildiriyor:

İsrailli araştırmacılar, yapay zekanın kullanıcıdan gelen belirli sorulara verdiği yanıtları, yalnızca gerçekten şifrelenmiş ağ trafiğini gizlice dinleyerek oldukça çılgın bir şekilde çözmeyi başardılar. Elbette şifrelemeyi kırmadılar, bunun yerine bu yapay zeka iletişiminin özel özelliklerinden yararlandılar. Özellikle yapay zekalar kelime kelime çalışıyor ve cevapların bu kelimeleri aslında tek tek iletiliyor. Ek olarak, her zaman tam olarak bir karakteri diğeriyle değiştiren akış şifresi adı verilen bir kod kullanılır. Bu, kelime uzunluklarının korunduğu anlamına gelir. Bu, internetteki bir dinleyicinin kelimelerin uzunluğu hakkında bilgi sahibi olduğu anlamına gelir. Elbette bu tek başına tüm bağlamı çözmek için yeterli değil, ancak yapay zekalardan gelen bu tür yanıtların tipik yapısı hakkında çok şey biliyoruz. Bunu ve bir kelime listesini bir yapay zekaya beslerseniz ve onu kelime uzunluklarından ve ilgili yapay zekanın yanıt davranışından bu yanıtları yeniden yapılandırması için eğitirseniz, araştırmacılar aslında içeriği şaşırtıcı bir doğrulukla yeniden oluşturabildiler. Ele geçirilen yanıtların yarısından fazlasında, konuşmanın içeriğini en azından kabaca, hatta yüzde 29'unda kelimesi kelimesine yeniden yapılandırmayı başardılar. Etkilenenler arasında ChatGPT, Microsoft'un Copilot ve Anthropic vardı. Ayrıca bir çare var. Bunu yapmak için, Google'ın BART (artık Gemini olarak yeniden adlandırıldı) ile yaptığı gibi, tek tek kelimeleri aktarmaktan kaçınmanız ve bunun yerine her zaman birkaç kelimeyi birleştirmeniz gerekir. Veya, eğer kelimelere sadık kalırsanız, bireysel paketleri her zaman belirli bir minimum uzunluğa kadar rastgele verilerle doldurun. Bu, bu yan kanal bilgilerinin kaybolduğu ve saldırganların artık kelime uzunluklarını belirleyemeyeceği anlamına gelir.

Robot iletişimi öğreniyor


İnsansı robotlar doğası gereği oldukça sessiz arkadaşlardır, ancak Şekil 01'deki insansı robota artık OpenAI ile yapılan işbirliğinden doğan iletişim becerileri kazandırılmıştır. Geliştirici şirket Figure bunu iki dakikalık bir videoyla gösteriyor. İçinde görsel tanıma, doğal konuşma çıktısı ve görevlerin bağımsız olarak yürütülmesinin nasıl birleştirilebileceğini gösteriyor. Figure 01'in dil yetenekleri, Figure tarafından geliştirilen sinir ağı ile OpenAI'nin katkıda bulunduğu görsel ve dilsel zekanın birleşiminden ortaya çıkar. Video, robotun doğal dildeki soru ve cevaplara nasıl tepki verdiğini gösteriyor. Bazı soruları yanıtlayabilmek için belirli bir bilgi düzeyi gerekmektedir. Örneğin, soruyu soran kişi masanın üzerinde bulunan yenilebilir bir şey istediğinde robot elmayı seçer. Şekil 01 bağımsız olarak masadaki tek yenilebilir nesnenin elma olduğunu fark etti. Robot, masanın üzerinde duran çöpleri bile bağımsız olarak kaldırıyor ve ayrıca çöplerin ve bulaşıkların nereye ait olduğu sorulduğunda bulaşıkları bir sepete ayırıyor. Figure, yakın zamanda OpenAI ile resmi olarak sonuçlanan ve robotik şirketine Tesla, Unitree ve Boston Dynamics gibi rakiplere kıyasla açık bir rekabet avantajı sağlayan işbirliğiyle büyük bir başarı elde etmiş olabilir. Örneğin Tesla yakın zamanda insansı robotu Optimus Bot'un, tişört katlama gösterisi sırasında uzaktan kontrol edildiğini itiraf etti. Kendisine verilen görevleri sıkıcı bir şekilde yerine getiren sessiz robotun artık giderek arka planda kaybolması muhtemel. Figure, kararları kendisi verebilen ve daha sonra bunları iletebilen bir tür “düşünen” robot oluşturma yolunda ilerliyor.

Yapay Zeka Yasası: Eşik yakında geçerliliğini yitirecek mi?


Yapay Zeka Yasası, genel amaçlı yapay zeka olarak adlandırılan yapay zekanın belirli bir boyutun üzerinde özel düzenleme ve şeffaflık yükümlülükleri kapsamına girdiğini belirtiyor. Boyut bilgi işlem gücü anlamına gelir. Bu nedenle, her şeyden önce, eğitim için kullanılan hesaplamaların “kümülatif miktarı”, söylendiği gibi, kayan nokta işlemlerinde (flop) ölçülen, 10 üzeri 25 (10^25) kayan nokta işleminin kuvvetinden fazlaysa, yüksek verimlilik varsayılabilir. kanun metni. Ancak AI yasasının meclis eş raportörü Dragoş Tudorache, bu zorunluluğun yakında geçerliliğini yitireceğini itiraf etti. Ya sadece birkaç yapay zeka modeli bu boyutu atlıyor ya da teknolojide bu boyuta artık gerek kalmayacak bir sıçrama var.

Oxford İnternet Enstitüsü'nde teknoloji ve düzenleme profesörü Sandra Wachter, Euractiv'i eleştirdi: Flop eşiği “bilgi işlem gücünü riskle karıştırıyor” ki bunlar iki farklı şey. Bu modeller boyutları ne olursa olsun önyargı, yanlış bilgi, mahremiyet ve halüsinasyonlar açısından her türlü riski taşıyordu.

Görüntü oluşturucu Ateşböceği İkizler gibi yanlış


Adobe'nin AI görüntü oluşturucusu Firefly, Google'ın Gemini'nin yakın zamanda kapatılan görüntü aracına benzer şekilde, tarihsel olarak hatalı görüntüler üretiyor. Semafor'un haberine göre Firefly, talep üzerine Nazi Almanyası'ndaki siyah askerlerin ve ABD'deki siyah kurucu babaların resimlerini üretti. Adobe, Firefly'ın gerçek veya tarihi olayların fotogerçekçi tasvirleri için tasarlanmadığını vurguladı. Şirket, sorunları tespit etmek ve düzeltmek için tüm Yapay Zeka Nesil ürünlerine geri bildirim mekanizmaları yerleştirdi. Meta'nın görüntü oluşturucusu aynı zamanda tarihsel olarak yanlış görüntüler üretmeyi de amaçlamaktadır. Eleştirmenler bunu tarihin çarpıtılması olarak görüyor. Ancak görüntü oluşturucuların tarih kitapları olmadığı ve yaratıcı olabileceği de iddia edilebilir. Ancak sağlayıcılar ve kullanıcılar muhtemelen bu sınırların tam olarak nerede çizilmesi gerektiğine kendi aralarında karar vermek zorunda kalacaklar.


(igr)



Haberin Sonu