1. Haberler
  2. Hayat
  3. Teknoloji
  4. Yapay zekâya karşı kibar olmalı mıyız?

Yapay zekâya karşı kibar olmalı mıyız?

Yapay zekâyla nasıl konuşmalısınız?

featured
Google'da Abone Ol
0
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Thomas Germain
BBC Future

Bir grup araştırmacı “pozitif düşünmenin” yapay zekâ sohbet botlarını daha doğru hale getirip getirmediğini test etmeye karar verdiğinde ortaya şaşırtıcı sonuçlar çıktı.

Çeşitli sohbet botlarına sorular sorarken yapay zekâ araçlarına “zekisin” diye hitap ettiler, dikkatlice düşünmeleri için onları teşvik ettiler ve hatta sorularını “Bu çok eğlenceli olacak!” diye bitirdiler.

Bunların hiçbiri tutarlı bir fark yaratmadı, ancak bir yöntem öne çıktı.

Yapay zekâyı Star Trek evrenindeymiş gibi davranmaya zorladıklarında, temel matematikte daha iyi sonuç verdi.

İnsanların, ChatGPT gibi araçların arkasındaki teknoloji olan büyük dil modellerinden (LLM) daha iyi yanıt almak için türlü tuhaf stratejileri var.

Liste uzayıp gidiyor.

  • Yapay zekâ psikozu nedir?

Bu, “prompt engineering” (komut tasarımı teknikleri) ya da “context engineering” (bağlam kurgulama teknikleri) etrafında oluşan bir tür mitolojinin parçası; yani yapay zekâdan daha iyi sonuç almak için talimatları farklı şekillerde kurma yöntemleri.

Ama işin aslı; uzmanlar, yapay zekâya nasıl talimat verileceğine dair kabul görmüş pek çok bilginin aslında işe yaramadığını söylüyor.

Bazı durumlarda tehlikeli bile olabilir. Yine de yapay zekâyla nasıl konuştuğunuz önemli ve bazı teknikler gerçekten fark yaratabiliyor.

ABD’deki Vanderbilt Üniversitesi’nde üretken yapay zekâ üzerine çalışan bilgisayar profesörü Jules White, birçok insanın, LLM’lere bir problemi çözdürecek sihirli bir kelime seti olduğunu düşündüğünden bahsediyor.

Ancak Prof. White’a göre mesele kelime seçimi değil:

“Asıl mesele ne yapmak istediğinizi temelde nasıl ifade ettiğiniz.”

Nezaket ne kadar önemli?

2025’te X’te bir kullanıcı, “İnsanların modellere ‘lütfen’ ve ‘teşekkür ederim’ demesi yüzünden OpenAI elektrik maliyetlerinden ne kadar para kaybetmiştir acaba?” diye bir paylaşım yaptı.

ChatGPT’yi geliştiren OpenAI’nin CEO’su Sam Altman ise “On milyonlarca dolar ama değdi” yanıtını verdi ve “Bilemezsiniz” diye de ekledi.

  • Yapay zekâ ne kadar su harcıyor?

Çoğu kişi son cümleyi olası bir yapay zekâ kıyametine gönderme yapan esprili bir ifade olarak okudu; ancak “on milyonlarca dolar” ifadesinin ne kadar ciddiye alınması gerektiğini bilmek zor.

Yine de nezaket aynı zamanda pratik bir mesele.

Bazı araştırmalar, yapay zekâya nazik davranmanın daha iyi yanıtlar verdiğini öne sürerken, diğerleri tam tersini ortaya koyuyor (Serenity Strull / BBC)

LLM’ler, kelimelerinizi “token” adı verilen küçük parçalara bölerek çalışıyor; ardından bunları istatistiksel olarak analiz edip uygun bir yanıt üretiyor.

Bu da kelime seçiminizden fazladan bir virgüle kadar söylediğiniz her şeyin yapay zekânın yanıtını etkileyeceği anlamına geliyor. Sorun şu ki, bunu öngörmek son derece zor.

Yapay zekâ komutlarındaki küçük değişikliklerin sonuçlarını inceleyen çok sayıda araştırma yapıldı, ancak elde edilen bulguların çoğu çelişkili ve kesinlikten uzak.

Örneğin 2024 tarihli bir çalışma, LLM’lerin emir vermek yerine kibarca sorulduğunda daha iyi ve daha doğru yanıtlar verdiğini buldu. Daha da ilginci, kültürel farklılıklar vardı.

Çince ve İngilizceye kıyasla Japonca konuşan sohbet botları, biraz fazla kibar davranıldığında biraz daha kötü performans gösterdi.

Ancak hemen yapay zekânıza bir teşekkür kartı almaya koşmayın.

Küçük çaplı başka bir test, ChatGPT’nin önceki bir sürümünün hakaret edildiğinde daha doğru sonuç verdiğini buldu.

Genel olarak da bu konuda kesin yargılara varmak için yeterli araştırma yok. Üstelik yapay zekâ şirketleri sohbet botlarını sürekli güncelliyor; bu da araştırmaların hızla geçerliliğini yitirmesine yol açıyor.

Uzmanlar, yapay zekâ modellerinin yalnızca birkaç yıl içinde dramatik biçimde geliştiğini ve bu nedenle eğer amacınız doğruluk oranını artırmaksa yağcılık yapmak, nazik olmak, hakaret etmek ya da tehdit etmek gibi tekniklerin zaman kaybı olduğunu söylüyor.

  • Yapay zekâ ile dertleşmek ruh sağlığını nasıl etkiliyor?

Star Trek çalışmasının ortak yazarlarından ve Broadcom’da uygulamalı makine öğrenimi mühendisi olan Rick Battle eskiden bu meselenin tamamen rastgele olduğunu söylüyor.

Çalışma 2024’te yapılmış olsa da o zamandan beri çok şey değişti.

Battle ve diğerleri bugün ChatGPT, Gemini ya da Claude gibi ana akım ürünlerde karşılaştığınız yeni modellerin, komutunuzun en önemli kısımlarını yakalama konusunda çok daha iyi olduğunu söylüyor.

Küçük dilsel değişikliklerden tutarlı biçimde etkilenmeleri pek olası değil; en azından bundan sistematik bir avantaj sağlayabileceğiniz bir düzeyde değil.

Buradan çıkarılacak sonuç da bir bakıma rahatsız edici. Şirketler ChatGPT ya da Google’ın Gemini’ı gibi yapay zekâları insan gibi davranacak şekilde tasarlıyor. Bu nedenle de bazen yönetebileceğiniz ruh halleri ya da yönlendirebileceğiniz kişilikleri varmış gibi görünmeleri gayet anlaşılır.

Buna kanmayın. Yapay zekâ araçları canlı varlıklar değil, taklitçilerdir. İnsan davranışını simüle ederler. Daha iyi yanıtlar istiyorsanız, yapay zekâyı bir insan gibi değil, bir araç gibi kullanmaya başlayın.

  • Google’dan ayrılan yapay zekânın ‘babası’ Hinton’dan uyarı: Sohbet robotları yakında insanlardan daha zeki olabilir

Yapay zekâyla nasıl konuşmalısınız?

Yapay zekâya ilişkin etik kaygılardan çevresel etkilerine kadar pek çok gerçek sorun var.

Bazı insanlar bu nedenle onlarla etkileşime girmeyi bile topyekün reddediyor.

Ancak LLM’leri kullanacaksanız, istediğinizi daha hızlı ve verimli şekilde elde etmeyi öğrenmek hem sizin için hem de muhtemelen süreçte harcanan enerji açısından daha iyi olacaktır.

İşe koyulmanız için bazı öneriler:

  • Birden fazla seçenek isteyin

White, insanlara söylediği ilk şeyin, “tek bir cevap istemeyin; üç ya da beş tane isteyin” olduğunu hatırlatıyor.

Bu nedenle örneğin bir yazı konusunda yardım istiyorsanız, yapay zekâdan önemli bir açıdan birbirinden farklı birden fazla seçenek sunmasını istemek oldukça mantıklı olabilir:

“Bu, insanı yeniden sürece dahil olmaya ve neyi neden beğendiğini düşünmeye zorlar.”

  • Örnek verin

Mümkün olduğunda yapay zekâya bir örnek sunun.

“Örneğin insanların bir LLM’den e-posta yazmasını istediğini ve sonra ‘bu hiç bana benzemiyor’ diye hayal kırıklığına uğradığını görüyorum” diyor White.

Oysa doğal tepki, “şunu yap” ve “bunu yapma” şeklinde talimat listesi vermek.

White’a göre çok daha etkili olan, “İşte daha önce gönderdiğim 10 e-posta, yazı stilimi kullan” demektir.

  • Mülakat yapmasını isteyin

White, “Diyelim ki bir iş ilanı metni oluşturmak istiyorsunuz. Yapay zekâya ‘Benden yeterli bilgiyi toplayana kadar bana tek tek sorular sor, sonra etkileyici bir iş ilanı yaz’ deyin” diyor:

“Soruları tek tek sorması, yanıtlarınıza göre uyum sağlamasına olanak tanır.”

  • Rol yapma konusunda dikkatli olun

Girişimci ve “prompt engineering” (komut tasarımı teknikleri) kavramının yaygınlaşmasına katkı sağlayan araştırmacı Sander Schulhoff “Eskiden, yapay zekâya örneğin bir matematik profesörü olduğunu söylerseniz, matematik sorularına daha doğru cevap vereceği düşünülürdü” diyor.

Ancak tek bir doğru cevabı olan bilgi sorularında rol yapma, Schulhoff ve diğerlerine göre modellerin doğruluğunu düşürebilir.

Battle bunun tehlikeli olabileceğini düşünüyor:

“Onu uzman olduğuna ve içsel parametre bilgisini güvenle kullanması gerektiğine teşvik ediyorsunuz. Bu da halüsinasyonu artırabilir.”

Başka bir deyişle, yapay zekânın aşırı özgüvenli davranmasına yol açabilir.

Ancak tek bir doğru cevabı olmayan, ucu açık görevlerde rol yapma etkili olabilir. Örneğin tavsiye, beyin fırtınası, yaratıcı ya da keşif odaklı problem çözme gibi meselelerde.

İş görüşmeleri konusunda gerginseniz, bir yapay zekâ aracına işe alım yöneticisini taklit etmesini söylemek iyi bir pratik olabilir ama yine de başka kaynaklara da başvurun.

  • Tarafsız kalın

Battle’a göre tanığı yönlendirmemek mühim olabilir.

İki araba arasında karar vermeye çalışıyorsanız, Toyota’ya daha yakın olduğunuzu söylemeyin.

“Aksi takdirde alacağınız yanıt büyük ihtimalle o olur” diyor.

  • Lütfenler ve teşekkürler

2019 tarihli bir Pew Research Center anketine göre Amerikalıların yarısından fazlası akıllı hoparlörleriyle konuşurken “lütfen” diyordu.

Görünüşe göre bu eğilim devam ediyor.

Yayıncı Future’ın 2025’te yaptığı bir ankette, insanların yüzde 70’i yapay zekâ kullanırken kibar davrandığını söyledi.

Çoğu bunun doğru olan şey olduğunu düşündüğü için nazik davrandığını belirtirken, yüzde 12’si olası bir robot ayaklanmasına karşı kendini korumak için bunu yaptığını söyledi.

Nezaket sizi öfkeli robotlardan korumayabilir ya da LLM’leri daha doğru hale getirmeyebilir; ancak yine de sürdürmek için başka nedenler var.

Bu alışkanlık hayatınızın başka alanlarına da fayda sağlayabilir.

“Benim için daha büyük mesele şu: ‘Lütfen’ ve ‘teşekkür ederim’ demek, yapay zekâyla etkileşim kurarken sizi daha rahat hissettirebilir” diyor Schulhoff ve şöyle devam ediyor:

“Modelin performansına yardımcı olmuyor ama modeli daha rahat kullandığınız için onu daha çok kullanmanıza yardımcı oluyorsa, o zaman faydalıdır.”

Ayrıca kendi insani doğanızın hassasiyetini de düşünmek gerekir.

Filozof Immanuel Kant, hayvanlara karşı zalim olmamanızın bir nedeninin bunun size de zarar vermesi olduğunu savunmuştu.

Başka bir deyişle, herhangi bir şeye karşı kaba olmak sizi daha sert bir insan yapar.

Yapay zekânın duygularını incitemezsiniz çünkü duyguları yoktur; ama yine de nazik olmak iyi bir alışkanlık olabilir.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü