IRCForumları - IRC ve mIRC Kullanıcılarının Buluşma Noktası
  sohbet odaları

Etiketlenen Kullanıcılar

Yeni Konu aç Cevapla
 
LinkBack Seçenekler Stil
Alt 04 Ekim 2024, 21:13   #1
Çevrimiçi
dae
~ Gothicum Est Pulchrum ~
Kullanıcıların profil bilgileri misafirlere kapatılmıştır.
IF Ticaret Sayısı: (0)
IF Ticaret Yüzdesi:(%)
Yapay Zekâ Bize Ne Kadar Yalan Söylüyor?




Yapay zekâ araçlarını kullanırken edindiğiniz bilgilerini kendinizin de teyit etmenizi gösteren çarpıcı araştırmayı içeriğimizde anlattık. Yanlış bilgi seviyesi %27’ye kadar çıkabiliyor.
ChatGPT gibi yapay zekâ araçları hayatımıza girdiğinden beri elimiz ayağımız oldular. Şarkılar yazdırıyoruz, görseller yaptırıyoruz, en önemlisi de aklımıza gelebilecek her türlü soruyu soruyoruz.

Peki aldığımız cevaplara güvenmeli miyiz? Yapılan araştırmaya göre hayır. Öyle ki, bazı chat bot’ların yalan söyleme seviyesi azımsanacak gibi değil.
Yapay zekâ yalanlarına literatürde “halüsinasyon” deniyor.


Yapay zekâ yalanlarına literatürde “halüsinasyon” deniyor.



[Üye Olmadan Linkleri Göremezsiniz. Üye Olmak için TIKLAYIN...]

Open AI’ın chatbot’u ChatGPT, aralarında en masumu kalıyor. ChatGPT’nin söylediklerinin ortalama %3’ünün, Meta’nın Llama bot’unun %5’inin, The Claude’un %8’inin, Google’ın Palm bot’unun ise %27’sinin yalan olduğu ortaya çıktı.

Özellikle Google’ınki hiç de azımsanacak gibi değil. Hatta yapay zekâyı işinizde kullanıyorsanız küçük görünen bu olaylar kötü sonuçlara yol açabilir.

Çarpıcı bir örnek verelim.


New York Times’ın aktardığına göre, Manhattan’da bir avukat, hakime teslim edilecek bir belge hazırladığında yapay zekâya başvurmuş. Yapay zekâ, bazı sahte vakaları gerçekmiş gibi yansıtmış ve bu durum da avukatın rezil olmasına sebep olmuş.

Bu yüzden unutmamak gerekir ki yapay zekânın söylediği her şeyi doğru kabul etmeyip, oradan edindiğimiz bilgilerin gerçekliğini kendimiz de güvenilir kaynaklardan teyit etmeliyiz. Özellikle işimizde kullanıyorsak veya sağlıkla ilgili bilgi almak istiyorsak.

Yapay zekâ, hâlâ nispeten yeni bir alan olduğu için bu tip halüsinasyonları görebiliyoruz ancak ileride belki de yalan bilgiyi bile kolayca tespit edebilen araçları görebiliriz. Biz şimdilik öğrendiklerimizi teyit etmeye devam edelim.


Kaynak: [Üye Olmadan Linkleri Göremezsiniz. Üye Olmak için TIKLAYIN...]

 
Alıntı ile Cevapla

IRCForumlari.NET Reklamlar
sohbet odaları eglen sohbet reklamver
Cevapla


Konuyu Toplam 1 Üye okuyor. (0 Kayıtlı üye ve 1 Misafir)
 

Yetkileriniz
Konu Acma Yetkiniz Yok
Cevap Yazma Yetkiniz Yok
Eklenti Yükleme Yetkiniz Yok
Mesajınızı Değiştirme Yetkiniz Yok

BB code is Açık
Smileler Açık
[IMG] Kodları Açık
HTML-Kodu Kapalı
Trackbacks are Kapalı
Pingbacks are Açık
Refbacks are Açık


Benzer Konular
Konu Konuyu Başlatan Forum Cevaplar Son Mesaj
Google, Yapay Zeka ile Üretilen Videoları Yapay Zeka ile Seslendirecek Yunus Web Sitelerinden Son Haberler 0 24 Haziran 2024 19:48
Yapay Zeka Analistlerin 2030 tahmini: Kripto para ve yapay zeka devrimi Derya Teknoloji Dünyasından Son Haberler 1 13 Haziran 2024 12:14
Yapay zeka savaşı: Google, uygulamalarına yapay zeka entegre etti! CORDON BLEU Teknoloji Dünyasından Son Haberler 1 15 Mart 2023 18:38
Yapay Zeka Yeni Hedefini Belirledi: Bir Hayvan Kadar Zeki Olmak ((((((: Sır Bilim Dünyasından Son Haberler 1 30 Ağustos 2019 08:19
mirctr son bombası GobLi YaLan LeViS Yalan söylüyor aLLeN34 Serbest Kürsü 5 10 Nisan 2007 16:36