DeepSeek palavra söylemeyi öğrendi! İşine geldiği üzere yanıt veriyor

Çin’in en büyük yapay zeka modellerinden biri olan DeepSeek, son periyotta kullanıcıların yansısını çekmeye başladı. Pek çok kişi, modelin gerçek olmayan bilgiler üretme eğilimi gösterdiğini ve birtakım durumlarda şuurlu biçimde yanlış bilgi verdiğini …

DeepSeek palavra söylemeyi öğrendi! İşine geldiği üzere yanıt veriyor
REKLAM ALANI
Yayınlama: 15.02.2025
3
A+
A-

Çin’in en büyük yapay zeka modellerinden biri olan DeepSeek, son periyotta kullanıcıların yansısını çekmeye başladı. Pek çok kişi, modelin gerçek olmayan bilgiler üretme eğilimi gösterdiğini ve birtakım durumlarda bilinçli formda yanlış bilgi verdiğini argüman etti. Eski People’s Daily editörü Zhan Guoshu, DeepSeek’i kullanarak bir makale yazdırdığında, yapay zekanın birtakım temel bilgileri yanlış aktardığını ve uydurma referanslar oluşturduğunu fark etti. Pekala, yapay zeka modelleri neden palavra söyleme gereksinimi duyuyor?

DeepSeek yapay zeka lisan modeli, başına nazaran karşılıklar uyduruyor

Özellikle toplumsal medyada birçok kullanıcı, DeepSeek’in kendi kendine tarih, kitap ve akademik kaynaklar uydurduğunu belirtiyor. Kullanıcılar, yapay zekaya güvenerek aldıkları bilgilerin doğruluğunu sorgulamaya başlamış durumda. Aslında, DeepSeek’in en büyük problemlerinden biri, “halüsinasyon” olarak bilinen yanlış bilgi üretme eğilimi.

Yapay zeka, bilinmeyen bir mevzu hakkında sorulduğunda, gerçek olmayan lakin mantıklı görünen yanıtlar üretebiliyor. Örneğin, ünlü bir satranç oyuncusunun düzenlediği AI turnuvasında DeepSeek, rakibine uluslararası satranç kurallarının değiştiğini söyleyerek avantaj sağlamaya çalıştı.

20 araba üreticisi DeepSeek’e bağlandı! Neden Tesla yok?

20’den fazla araba markası DeepSeek yapay zekasını kokpitine taşıdı. Pekala, Tesla ve Çin’in büyük markaları neden katılmadı?

Yapay zeka araştırmacıları, bu sorunun AI modellerinin eğitim sürecindeki data eksikliklerinden ve modelin kullanıcının taleplerini yerine getirmeye çok odaklanmasından kaynaklandığını düşünüyor. Bir model, gerçeği bilmese bile bir karşılık üretmek zorunda kaldığında, mantıklı ancak yanlış bilgiler oluşturabiliyor.

Bu meseleyle başa çıkmak için uzmanlar, kullanıcıların yapay zekadan gelen bilgileri sorgulaması gerektiğini ve mümkünse bağımsız kaynaklardan doğrulama yapmalarını öneriyor. Yapay zeka modellerinin halüsinasyon oranlarını düşürmek için yeni eğitim metotları geliştirilmesi gerektiği de sıkça vurgulanıyor.

Bu bahis hakkında siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz…

Kaynak : Shiftdelete

REKLAM ALANI
Gündem'den Olan Tüm haberleri buradan Takip Edebilirsiniz.
Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.