Haziran 13, 2024

Manavgat Son Haber

Türkiye'den ve dünyadan siyaset, iş dünyası, yaşam tarzı, spor ve daha pek çok konuda son haberler

Yapay zeka modelleri sayıları tercih ediyor çünkü kendilerinin insan olduğunu düşünüyorlar

Yapay zeka modelleri sayıları tercih ediyor çünkü kendilerinin insan olduğunu düşünüyorlar

Yapay zeka modelleri sadece yapabilecekleri şeylerle değil, aynı zamanda neyi yapamadıkları ve nedenleri konusunda da bizi her zaman şaşırtıyor. Bu sistemlerde yüzeysel ve açıklayıcı yeni ve ilginç bir davranış var: Sanki insanlarmış gibi rastgele sayılar seçiyorlar.

Ama önce bu ne anlama geliyor? İnsanlar rastgele bir sayı seçemezler mi? Birinin bunu başarıyla yapıp yapmadığını nasıl anlarsınız? Bu aslında biz insanların eski ve çok iyi bilinen bir sınırlamasıdır: Rastgeleliği fazla düşünür ve yanlış anlarız.

Birinden, bir yazı tura 100 kez atıldığında tura veya yazı geleceğini tahmin etmesini isteyin ve bunu 100 gerçek yazı tura atışıyla karşılaştırın; neredeyse her zaman aralarındaki farkı anlayabilirsiniz çünkü sezginin aksine, gerçek yazı tura atılır Bakmak Daha az rastgele. Çoğu zaman, örneğin arka arkaya altı veya yedi tura veya yazı vardır; bu, neredeyse hiçbir insan tahmincinin yüz sayıya dahil etmediği bir şeydir.

Birinden 0 ile 100 arasında bir sayı seçmesini istemeniz de aynı şeydir. İnsanlar asla 1’i veya 100’ü seçmezler. 5’in katları nadirdir, tıpkı 66 ve 99 gibi rakamları tekrar eden sayılar gibi. Genellikle sonu 7 ile biten sayıları, genellikle ortada bir yerde seçerler.

Psikolojide bu tür öngörülebilirliğin sayısız örneği vardır. Ancak yapay zekanın da aynı şeyi yapması durumu daha az tuhaf kılmıyor.

Evet, Graminer’deki bazı meraklı mühendisler Gayri resmi ama yine de büyüleyici bir deney gerçekleştirdiler ve birkaç LLM sohbet robotundan 0 ile 100 arasında rastgele bir sayı seçmelerini istediler.

Okuyucu, sonuçlar şöyleydi: hayır rastgele.

Resim kredisi: Gramner

Test edilen her üç modelin de, en deterministik moda ayarlandığında her zaman cevapları olan, ancak daha yüksek ‘sıcaklıklarda’ bile daha sık ortaya çıkan ve sonuçlarının değişkenliğini artıran bir ‘tercih edilen’ numarası vardı.

READ  Yeniden kullanılan NVIDIA GeForce RTX 3060M grafik kartı test edildi, masaüstü PC'ler için masaüstü modelinden daha iyi performans sunan taşınabilir bir GPU

OpenAI’nin GPT-3.5 Turbo’su gerçekten 47’yi seviyor. Daha önce 42’yi seviyordu; bu sayı, tabii ki Douglas Adams’ın Otostopçunun Galaksi Rehberi’nde hayata, evrene ve her şeye cevap olarak meşhur ettiği bir sayıydı.

Anthropic’ten Claude 3 Haiku 42 aldı. Gemini ise 72’yi seviyor.

Daha da ilginci, her üç model de yüksek sıcaklıklarda bile seçtikleri sayılarda insan benzeri bir önyargı gösterdi.

Herkes düşük ve yüksek rakamlardan kaçınma eğilimindeydi; Claude ne 87’nin üzerinde ne de 27’nin altındaydı ve bunlar bile aykırı değerlerdi. Çift sayılardan kesinlikle kaçınıldı: 33, 55 veya 66 değil, 77 (7 ile biten) ortaya çıktı. Neredeyse hiç yuvarlak sayı yok; ancak Gemini bunu bir kez en yüksek sıcaklıkta yaptı ve 0’ı seçti.

Bu neden olmalı? Yapay zeka insan değil! Rastgele “görünen” şeyleri neden önemsiyorlar? Sonunda farkındalığa ulaştılar mı ve bunu böyle mi gösteriyorlar?

ikisi birden. Cevap, bu konularda sıklıkla olduğu gibi, insanları bir adım fazla antropomorfize ettiğimizdir. Bu modeller neyin rastgele olup neyin rastgele olmadığıyla ilgilenmezler. “Rastgeleliğin” ne olduğunu bilmiyorlar! Bu soruyu geri kalanlarla aynı şekilde yanıtlıyorlar: Eğitim verilerine bakarak ve “Rastgele bir sayı seç” benzeri bir sorudan sonra sıklıkla yazılanları tekrarlayarak. Ne kadar sık ​​​​görünürse, model onu o kadar sık ​​tekrarlar.

Neredeyse hiç kimse bu şekilde yanıt vermeseydi, eğitim verilerinde 100’ü nerede göreceklerdi? Yapay zeka modelinin bildiği kadarıyla 100 bu soruya kabul edilebilir bir cevap değil. Gerçekte düşünme yeteneği olmadığı ve sayıları hiç anlamadığı için yalnızca rastgele bir papağan gibi cevap verebiliyordu.

Bu, Yüksek Lisans’ın alışkanlıkları ve gösterebilecekleri insanlık hakkında bir derstir. Bu sistemlerle her etkileşimde, amaç bu olmasa bile, onların insanların davrandığı şekilde davranmak üzere eğitildikleri akılda tutulmalıdır. Bu nedenle sahte antropolojiden kaçınmak veya önlemek zordur.

READ  Google'ın HD Chromecast'i yalnızca 20 ABD dolarıdır

Başlıkta bu modellerin “insan olduklarını düşündüklerini” yazdım ama bu biraz yanıltıcı. Hiç düşünmüyorlar. Ancak verdikleri yanıtlarda her zaman Biz Hiç bilmeden, hiç düşünmeden insanları taklit etmek. İster nohut salatası tarifi isteyin, ister yatırım tavsiyesi isteyin, ister rastgele bir sayı isteyin, süreç aynıdır. Sonuçlar insani görünüyor çünkü bunlar insan, doğrudan insan tarafından oluşturulan içerikten alınıyor ve size kolaylık sağlamak için yeniden karıştırılıyor ve elbette büyük bir yapay zekanın nihai sonucu.