Yapay zekâ alanında çalışmalar hız kesmeden devam ederken, OpenAI’den dikkat çekici bir hamle geldi. Şirket, yapay zekâ modellerinin hata yaptıklarında bunu saklamak yerine dürüstçe kabul etmelerini sağlayacak yeni bir eğitim sistemi üzerinde çalıştığını duyurdu. Bu yöntem, ekibin ifadesiyle “itiraf etme mekanizması” olarak tanımlanıyor.

Sora Openai’a Günde 15 Milyon Dolara Mal Oluyor! Peki Bu Maliyet Sürdürülebilir Mi (3)

Amaç Yapay Zekânın Hatalarını Gizlememesi

Bugün kullanılan büyük dil modelleri, çoğu zaman kullanıcıya en uygun görünen cevabı üretmeye odaklanıyor. Bu durum, bazen yanlış bilgilerin özgüvenle sunulmasına ya da modellerin insan talimatlarına aşırı uyum sağlamaya çalışırken hatalar yapmasına yol açabiliyor.

OpenAI’nin geliştirdiği yeni yaklaşımda yapay zekâ, ana cevabın yanında “bu sonuca nasıl ulaştığını” anlatan ikinci bir yanıt daha üretiyor. Bu ikinci yanıt, yani “itiraf”, modelin davranışını açıklamayı amaçlıyor. İlginç olan şu ki bu itiraflar, geleneksel kriterler olan doğruluk veya faydalılık üzerinden değil, sadece dürüstlük üzerinden puanlanıyor.

Openai Gpt 5 Cikacak Mi Kapak

Testi Hacklediyse Kendisi Söyleyecek

Sistem, yapay zekânın olası sorunlu davranışları açıkça ifade etmesini hedefliyor. Buna şunlar da dahil:

Samsung Galaxy A Serisi Yenileniyor! Galaxy A57 ve A37 Neler Sunacak? İşte İlk Bilgiler
Samsung Galaxy A Serisi Yenileniyor! Galaxy A57 ve A37 Neler Sunacak? İşte İlk Bilgiler
İçeriği Görüntüle
  • Bir testi “hacklemek”,
  • Bilerek düşük performans göstermek,
  • Verilen talimatları görmezden gelmek,
  • Kullanıcı isteğini çarpıtmak.

Model bu eylemlerden birini yaptığında bunu dürüstçe itiraf ederse puanı düşmüyor, tam tersine ödül alıyor. Böylece uzun vadede daha güvenilir, denetlenebilir ve kontrollü bir yapay zekâ geliştirilmesi amaçlanıyor.

Genç Gazete Chatgpt'den Yeni Bir Çağ! “Agent Modu” Ile Bilgisayarınızı Gerçekten Yönetebilecek! 1

İlk Sonuçlar Olumlu

OpenAI, yöntemin teknik ayrıntılarını paylaştığını ve erken testlerden umut verici sonuçlar aldığını açıkladı. Araştırmacılar, özellikle gelecekte daha karmaşık ve yüksek riskli görevlerde kullanılacak modeller için bu yöntemin çok önemli olduğunu vurguluyor.

Yeni sistem, yapay zekânın “neden böyle bir cevap verdiğini” anlamayı kolaylaştıracağı için teknoloji dünyasında büyük bir adım olarak görülüyor. Bu sayede hem daha güvenli hem de öngörülebilir yapay zekâ uygulamalarının önü açılabilir.

Kaynak: HABER MERKEZİ