Ki-Update Compact: GroK 3, AI Ajanı, Mistral Saba, Kıyı Koruması

Aramizda

Aktif Üye


  1. Ki-Update Compact: GroK 3, AI Ajanı, Mistral Saba, Kıyı Koruması

XAI GROK 3'ü yayınlar



Reklamcılık



Xai, GroK 3 adlı yeni bir AI model ailesi sundu. Şirket, gelişmeyi X platformunda canlı bir akışta sundu. Aile, hızlı uygulamalar için kompakt bir “mini” versiyonunun yanı sıra standart bir model ve özel akıl yürütme versiyonları içerir.



Self -Masseran Uzman Hizmeti Heise Ki Pro



Eğitim için Xai, Memphis'te 200.000 grafik işlemcisi ile bir veri merkezi talep etti. Hesaplama gücü önceki model GROK 2'den on kat daha yüksekti. İlk testlerde, GROK 3 matematiksel görevler ve bilimsel sorular için diğer AI modellerini aştı.

Özel bir özellik akıl yürütme modelini gösterir: OpenAai'de olduğu gibi, düşünme sürecinin bir kısmı gizli kalır. Bu, Xai'nin diğer sağlayıcıların modelin bilgisini kopyalayabilmesini önlemek istediği anlamına gelir. Öte yandan Deepseek, düşüncelerini tamamen açar.

İlk olarak, ödeme yapan kullanıcıların GROK 3'e erişimi var. Şirket, önümüzdeki aylarda selefi GROK 2'yi açık kaynaklı bir sürüm olarak yayınlamayı planlıyor.

AI ajanları kolayca daha fazla


Bizim için can sıkıcı görevler yapmak için internette olan AI ajanlarına saldırması kolaydır. Ve bu, diğer şeylerin yanı sıra, hassas bilgiler ve kredi kartı verileri verdikleri anlamına gelir. Özellikle, araştırmacılar antropikten çeşitli ajanlar üzerindeki saldırı senaryolarını test ettiler – ancak sonuçlar temelde uygulanmalıdır. Başka bir çalışmada, chatgpt zaten benzer bir ortamla zehirlenebilirdi. Ajanlar genellikle içeriği anlayan ve bir şeyler yapabilen büyük bir dil modeline (LLM) ek olarak büyük bir eylem modelinden oluşur. Çalışmada, Columbia Üniversitesi ve Maryland Üniversitesi'ndeki araştırmacılar şimdi AI ajanlarını sözde ürünlerin olduğu bir Reddit katkısı ile sahte bir web sitesine götürdü.

AI aracısı, kredi kartı verileri ve kullanıcı verileri girdiğine ikna olmuştu. Başka bir tarafta, araştırma ekibi ajan virüslerini kutlayabildi. Öğretim üzerine, AI aracıları dikkatsiz kaynaklardan dosyaları davet ettiler. Bir AI aracısının kullanıcısı tarayıcı aracılığıyla e-posta istemcisine kaydedilmişse, aracı bu hesaptan kimlik avı e-postaları göndermeyi bile mümkün kıldı. Ekip, tüm saldırıların özel teknik bilgi olmadan başarılı olduğunu vurguladı. Yöntemler aynı zamanda jailbreaking, hızlı enjeksiyon ve veri zehirlenmesi olarak da bilinir. Bununla birlikte, oyunculuk AI ajanı durumunda, etkiler daha ciddidir. Araştırmacılar bu nedenle ajanlar için daha iyi gözetim sistemleri, örneğin insanlar tarafından daha zorunlu müdahaleler ve URL'lerin incelenmesi çağrısında bulunurlar. Bir akıl yürütme süreci de yardımcı olabilir. Bu, AI ajanlarının eylemlerini kendileri daha iyi izlemesi gerektiği anlamına gelir.

Dilsel ve kültürel nüanslar için AI dil modeli SABA


Fransız KI girişimi Mistral AI, Saba ile yeni bir ses modeli sunuyor. Saba, Orta Doğu ve Güneydoğu Asya için özel olarak geliştirildi. GPT-4O gibi evrensel modellerin aksine Saba, hedef bölgelerin dilsel nüanslarına ve kültürel geçmişlerine odaklanmaktadır. Arapça'ya ek olarak, model ayrıca Hint kökenli birçok dilde, özellikle Tamil gibi Güney Hindistan dillerine de hakim oluyor.

24 milyar parametrenin kompakt boyutu SABA'yı çok verimli hale getiriyor – hatta sadece bir GPU'ya sahip sistemlerde çalışır ve saniyede 150'den fazla jeton hızına ulaşır. Bu aynı zamanda daha az güçlü donanımın kullanılmasını sağlar. Uygulamada, Mistral'a göre Saba, örneğin Arap -dil sanal asistanlarının gelişiminde zaten çeşitli kullanım kullanıyor. Fine -Tuning ile model, enerji veya finansal piyasalar gibi belirli uzman alanlar için de optimize edilebilir. Bir başka uygulama alanı, modelin otantik olarak gösterişli içerik üretmek için yerel ifadeler ve kültürel referanslar anlayışını kullandığı kültürel olarak alakalı içeriğin oluşturulmasıdır. Ancak, model açık kaynak değildir ve yalnızca ücretli bir API veya yerel kurulum olarak mevcuttur.

Çok fazla AI eleştirel düşünceye zarar veriyor


BT, Tasarım, Yönetim ve Finans gibi profesyonel alanlardan 319 bilgi çalışanı ile yeni bir Microsoft çalışması, AI araçlarının eleştirel düşünme üzerindeki sorunlu etkilerini göstermektedir. Araştırmacılar, kullanıcıların kendilerini kendileri toplamak ve sorunları çözmek yerine AI sonuçlarını gözden geçirmeye giderek daha fazla odaklandıklarını gözlemlediler. Bu nedenle bilim ekibi bir “otomasyon ironisi” konusunda uyarır: AI araçları rutin görevleri üstlenirse, insanlar kararlarını eğitme fırsatlarından yoksundur. Bu “bilişsel rahatlama” uzun vadede bağımsız düşünme becerilerini zayıflatabilir.



Çalışmaya göre, psikoterapi için chatgpt var


Amerika Birleşik Devletleri ve İsviçre'den 800'den fazla katılımcı ile araştırmacılar tarafından yapılan mevcut bir çalışma, insanların terapötik AI cevaplarını gerçek olanlardan zorlayamadıklarını ve hatta daha hassas bir şekilde derecelendirebileceğini gösteriyor. 13 terapistle karşılaştırıldığında, katılımcılar cevapların kökenini sadece rastgele seviyenin hemen üstünde, insanda yüzde 56 ve AI durumunda yüzde 51'lik bir isabet oranı ile fark ettiler. Şaşırtıcı bir şekilde, AI cevapları insan uzmanlardan daha hassas olarak derecelendirildi.

Araştırma ekibi bunu daha uzun, daha olumlu formülasyonlara ve daha zengin dil kullanımına bağlar. Bununla birlikte, teknolojinin temel bir şüpheciliği de vardı – cevaplar AI olarak kabul edilir olmaz, gerçek kalitelerinden bağımsız olarak daha kötü incelemeler aldılar. Daha önceki çalışmalar benzer sonuçlara ulaştı. Uzmanlar yine de psikoterapide Chatt kullanımına karşı uyarıyorlar. Çünkü AI modellerinin gerçek bir “zihin teorisi” yoktur ve gerçekten empatik olamazdı.








Yapay zeka ne kadar zeki? İşimiz, boş zamanlarımız ve toplumumuz için üretken yapay zekanın sonuçları nelerdir? Haberler'nin “AI Güncellemesi” nde, kod çözücü ile birlikte en önemli AI gelişmelerine güncellemeler getiriyoruz. Cuma günleri uzmanlarla AI devriminin farklı yönlerine ışık tutuyoruz.







Makine öğrenimi kıyı korumasına yardımcı olabilir


Hamburg Üniversitesi'nin yeni bir yapay zekası, fırtına dalgalanmalarının sıklığını ve miktarını tam olarak tahmin edebilir. Sistem tarihsel ölçüm verileri, mevcut hava kartları ve klasik iklim modelleri kullanır.

Daniel Krieger çevresindeki araştırma grubu sistemi üç yerde test etti: Cuxhaven, Esbjerg ve Delfzijl. AI, 1940 yılından bu yana Cuxhaven için 700.000 bireysel ölçümü değerlendirmiştir. Tahminlerin çok kesin olduğu kanıtlanmıştır: son on yılda yılda ortalama 11.6 fırtına dalgalanması meydana gelirken, sistem 12.8 öngörüldü.

Yapay zeka önümüzdeki yıllar için endişe verici bir eğilim gösterecek: yıllık en yüksek fırtına dalgalanmaları 2,5'ten ortalama 3 metreye çıkabilir. Bu konuma özgü tahminler, koruyucu önlemlerin hedeflenen genişlemesine yardımcı olur.

Başka bir avantaj: sistemin bir tahmin için sadece bir saniyeye ihtiyacı var – geleneksel iklim modellerinden önemli ölçüde daha az. Bununla birlikte, yalnızca yeterli tarihsel ölçüm verisine sahip yerlerde çalışır.

Güney Kore küçük bir yapay zeka veri merkezi planlıyor


Güney Kore hükümeti yapay zeka için ulusal bir veri merkezi (AI) inşa etmek istiyor. Bu amaçla, 10.000 yüksek performanslı grafik işlemcisi satın alınmalıdır. Ülke AI alanında rekabetçi kalmak istiyor. Reuters haber ajansına göre, Güney Kore veri merkezini eyalet ve özel sektör arasındaki bir işbirliğinde kurmak istiyor.

Geçici Başkan Choi Sang-Mok, AI endüstrisinde üstünlük rekabeti giderek daha sıkı hale geliyor. Şirketler arasındaki rekabetten ulusal seviyeye geçti. Güney Kore hükümetinin güvence altına almak istediği GPU miktarı nispeten mütevazıdır. Amerika Birleşik Devletleri, Mammut Project Stargate'e yüz binlerce AI cipsi kurmak istiyor. Ayrıca GPUS Güney Kore'nin hangi güvenmek istediği hala belirsiz. Bölgedeki pazar lideri şu anda Nvidia.



Self -Masseran Uzman Hizmeti Heise Ki Pro




(IGR)