Kompakt AI güncellemesi: OpenAI o3, Microsoft, AI-Kimlik Avı, Claude

Aramizda

Aktif Üye


  1. Kompakt AI güncellemesi: OpenAI o3, Microsoft, AI-Kimlik Avı, Claude

OpenAI o3: Yüksek hesaplama çabasına ve fiyat etiketine sahip devrim niteliğinde yapay zeka modeli



Reklamcılık



OpenAI'nin yeni AI modelleri o3 Mini ve o3 bir rekor kırdı; Soyut Akıl Yürütme Derlemi'ndeki (ARC) görevlerin yüzde 85'ini çözdüler. Önceki sistemler yalnızca yüzde 35'i yönetiyordu. ARC testi dil modelleri için özellikle zordur çünkü soyut kalıpların öğrenilen kurallara göre değiştirilmesi gerekir.



KI PRO adı verilen kişisel tanıtım uzmanı hizmeti



o3 muazzam bilgi işlem kaynaklarını kullanır. Her görev binlerce dolara mal oluyor. Uzmanlar, bir o3 aboneliğinin ayda 2.000 dolara kadar çıkabileceğini tahmin ediyor. Karşılaştırma için: o1'in şu anda aylık maliyeti 200 ABD dolarıdır.

o3 önce birçok kısmi çözümü hesaplar ve ardından en iyisini seçer. Bunu yapmak için sorgular dahili olarak binlerce değişkene bölünür. Bu, yüksek hesaplama çabasını açıklar. Ancak yalnızca tek bir dil modeli çalıştığından doğru çözümlerin garantisi yoktur. Mantıksal kontroller eksik, halüsinasyonlar mümkün olmaya devam ediyor.

OpenAI'nin yapay zeka aracısı “Operatör”ün Ocak ayında piyasaya sürülmesi planlanıyor


OpenAI, programlama veya seyahat rezervasyonları gibi bilgisayar görevlerini bağımsız olarak yerine getirebilen AI aracısı “Operatör”ü tanıtmayı planlıyor. Sistem başlangıçta geliştiriciler için bir önizleme sürümü ve API olarak sunulacak. OpenAI CEO'su Sam Altman, yapay zeka aracılarını bir büyüme fırsatı olarak görüyor: Gelecekte bu, mevcut modellerin daha akıllıca kullanılmasıyla ilgili olacak.

AI asistanları yarışında OpenAI'nin yanı sıra Anthropic, Microsoft ve Google da aktif durumda. Amaç, alt görevleri birbirine bağlayarak tüm iş süreçlerini otomatikleştirebilen sistemlerdir. Ancak “hızlı enjeksiyonlar” ile ilgili güvenlik endişeleri “Operatör”ün başlamasını geciktirdi. Kullanıcılar, hazırlanan girdi aracılığıyla yapay zeka davranışını değiştirir. Şu anda güvenilir bir savunma yok.

Araştırmacılar: Yapay zeka kimlik avını daha etkili hale getiriyor


Harvard'daki bir araştırma grubu, yapay zeka tarafından oluşturulan kimlik avı saldırılarının yüksek etkinliğini gösterdi. Katılımcılar, farklı türde kimlik avı e-postaları alan dört gruba ayrıldı: rastgele kimlik avı, yapay zeka tarafından oluşturulan e-postalar, insan tarafından oluşturulan hedefli e-postalar ve yapay zeka tarafından insan optimizasyonuyla oluşturulan e-postalar.

Sonuçlar, yapay zeka destekli saldırıların açık bir üstünlüğünü gösteriyor: Geleneksel kimlik avı yalnızca %12'lik bir tıklama oranına ulaşırken, yapay zeka tarafından oluşturulan ve insan tarafından oluşturulan kimlik avı e-postaları %54 ile eşit derecede başarılı oldu. Yapay zeka e-postalarının ek insan optimizasyonu, oranı hafif bir artışla %56'ya çıkardı. Araştırmacılar, hedef kişilerin dijital ayak izini analiz eden ve buna dayanarak kişiselleştirilmiş e-postalar oluşturan özel bir yapay zeka aracı geliştirdi.

Yapay zeka, vakaların %88'inde kullanılabilir bilgiler buldu. Kimlik avı tespiti için çeşitli dil modelleri test edilirken, Claude 3.5 Sonnet'in hiçbir hatalı pozitif sonuç olmadan %97,25'lik bir tespit oranıyla özellikle etkili olduğu kanıtlandı. Böylece çalışma, yapay zekanın hem saldırı hem de savunma açısından çifte potansiyelini ortaya koyuyor. İngiliz sigorta şirketi Beazley gibi şirketler, yapay zeka tarafından üretilen “aşırı kişiselleştirilmiş” kimlik avı saldırılarının artması konusunda şimdiden uyarıda bulunuyor.

Programlama yardımcısı olarak yapay zeka: Daha verimli kod ancak daha fazla hata


Bir deney, yapay zeka tarafından oluşturulan kodun kesin talimatlar aracılığıyla hızlandırıldığını gösteriyor. Buzzfeed Kıdemli Veri Bilimcisi Max Wool, Anthropic'in Claude 3.5 Python kodunu oluşturup optimize etti. İlk çözümden sonra Woolf defalarca sistemden “daha iyi kod yaz” basit istemiyle kodu optimize etmesini istedi. Birkaç çalıştırmanın ardından kod neredeyse 100 kat daha hızlıydı. Ancak güçlü optimizasyonlar, manuel olarak düzeltilmesi gereken daha fazla hataya da yol açtı. Yine de test uzmanı, iyileştirmeye yönelik yaratıcı önerileri nedeniyle yapay zekayı övdü.

Verimlilikteki iyileşmelere rağmen yapay zekanın insan geliştiricilerin yerini almasını beklemiyor. İyi fikirleri fark etmek ve sorunları çözmek için hala uzmanlara ihtiyaç var.



Microsoft, ağırlıklara sahip açık kaynaklı bir model olarak küçük Phi-4 LLM'yi piyasaya sürdü


Microsoft, Phi-4 AI dil modelinin tam model ağırlıklarını yayımladı. MIT lisansı kapsamındaki sürümle birlikte, geliştiriciler ve araştırmacılar artık modeli yalnızca kullanmakla kalmıyor, aynı zamanda ticari amaçlar da dahil olmak üzere serbestçe değiştirebiliyor ve daha da geliştirebiliyor.

Kesin parametrelere erişim sayesinde, Aralık ayındaki orijinal yayına göre çok daha kapsamlı ayarlamalar artık mümkün. Bu özellikle ilginçtir çünkü yalnızca 14 milyar parametrelik küçük boyutuna rağmen Phi-4, beş kata kadar daha büyük modellerin performansını elde etmektedir.








Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerine bakıyoruz.







Araştırmacılar şunu gösteriyor: Daha küçük yapay zeka modelleri, büyük dil modellerini daha verimli bir şekilde eğitebilir


Google araştırmacıları, büyük dil modellerinin eğitimini yüzde 28'e kadar hızlandırırken performanslarını da artıran SALT adında yeni bir eğitim yöntemi geliştirdi. İşin püf noktası, daha küçük yapay zeka modellerini bir tür yardımcı öğretmen olarak kullanmaktır.

Yöntem iki aşamada çalışır: İlk olarak, büyük model, bilgi damıtma adı verilen yöntemle küçük modelden öğrenir. Daha küçük olan model, zaten iyi tahminlerde bulunabildiği alanlardaki bilgisini aktarıyor. İkinci aşamada, büyük model daha sonra geleneksel olarak eğitilir. Araştırmacılar, SALT ile 1,5 milyar parametreli bir modelin, 2,8 milyar parametreli bir modelin daha verimli bir şekilde eğitilmesine yardımcı olabileceğini gösteriyor. Testlerde, bu şekilde eğitilen büyük model, normal eğitim süresinin yalnızca yüzde 70'inden sonra, geleneksel olarak eğitilmiş bir modelle aynı performansı elde etti. Belirli görevler için daha fazla ince ayar yapıldıktan sonra, özellikle aritmetik görevlerde ve metin anlamada daha da iyi performans gösterdi.

Ekip ayrıca daha küçük modeller için de potansiyel görüyor. SALT ile sınırlı kaynaklara sahip kurumlar bile büyük dil modellerine doğrudan erişim gerektirmeden daha güçlü dil modelleri geliştirebilecek.

Bu, 9 Ocak 2025'ten itibaren Haberler online'ın AI güncellemesiydi. Her iş günü saat 15:00'ten itibaren yeni bir bölüm yayınlanacaktır.



KI PRO adı verilen kişisel tanıtım uzmanı hizmeti




(igr)