
Yapay zekâya “lütfen” demek işe yarıyor mu? Onu tehdit etmek mi, yoksa bir bilim kurgu dizisindeki karakter gibi konuşturmak mı daha etkili? Uzmanlara göre sohbet robotlarından daha iyi sonuç almanın yolu sandığınız kadar gizemli değil.
Detaylar haberimizde…

.Yapay Zekâ Destekli Sohbet Robotlarıyla Nasıl Konuşulur?
Yapay zekâ destekli sohbet robotlarıyla nasıl konuşulması gerektiği sorusu, son yılların en tuhaf teknoloji tartışmalarından birine dönüştü. Kimileri nazik olmanın sonuçları iyileştirdiğini savunuyor, kimileri sert ifadelerin daha etkili olduğunu iddia ediyor. Hatta bazı kullanıcılar, sohbet robotlarına bir uzman rolü vererek ya da onları bir bilim kurgu evrenine yerleştirerek daha doğru yanıtlar aldıklarını düşünüyor.
Ancak uzmanlara göre bu yöntemlerin çoğu ya abartılıyor ya da tamamen işe yaramıyor. Asıl önemli olan ise kelimelerin büyüsü değil, talebin nasıl yapılandırıldığı.
Star Trek Deneyi ve Şaşırtan Sonuç
Bir grup araştırmacı, “pozitif düşünmenin” yapay zekâ yanıtlarını daha doğru hâle getirip getirmediğini test etmek için çeşitli sohbet robotlarına sorular yöneltti. Deney sırasında yapay zekâya “akıllısın”, “dikkatlice düşün” gibi teşvik edici ifadeler kullanıldı; hatta bazı sorular “Bu eğlenceli olacak!” cümlesiyle bitirildi.
Sonuç: Bu yaklaşımların hiçbiri tutarlı bir fark yaratmadı.
Ancak ilginç bir yöntem dikkat çekti. Yapay zekâdan kendisini “Star Trek evrenindeymiş gibi” hayal etmesi istendiğinde, temel matematik sorularında daha başarılı olduğu gözlemlendi. Bu sonuç, yapay zekâ ile iletişime dair tartışmaları daha da alevlendirdi.
Prompt Mühendisliği Efsaneleri
ChatGPT gibi büyük dil modellerinin (LLM) arkasındaki teknoloji, istatistiksel analiz yoluyla çalışıyor. Kullanıcının yazdığı her kelime küçük parçalara (“token”lara) bölünüyor ve model bu parçalar üzerinden en olası yanıtı üretiyor.
Bu mekanizma, “prompt mühendisliği” olarak bilinen bir yaklaşımın doğmasına yol açtı. Bu yaklaşım, yapay zekâdan daha iyi sonuç almak için talimatların nasıl yazılması gerektiğine odaklanıyor.
Ancak Vanderbilt Üniversitesi’nden üretken yapay zekâ uzmanı bilgisayar bilimci Jules White’a göre ortada sihirli bir kelime dizisi yok.
White: “Birçok insan, doğru kelimeleri kullanırsa modelin her problemi çözeceğini düşünüyor. Oysa mesele kelime seçimi değil, yapmak istediğiniz şeyi nasıl ifade ettiğinizdir” diyor.
Nazik Olmak Gerçekten İşe Yarıyor mu?

2025 yılında X (eski adıyla Twitter) platformunda bir kullanıcı, “İnsanların modellere ‘lütfen’ ve ‘teşekkür ederim’ demesi nedeniyle OpenAI elektrik masrafı olarak ne kadar para kaybetti acaba?” diye sordu.
OpenAI CEO’su Sam Altman, bu soruya “On milyonlarca dolar ama iyi harcanmış para. Asla bilemezsiniz.” yanıtını verdi.
Bu sözler, bazıları tarafından esprili bir “yapay zekâ kıyameti” göndermesi olarak yorumlandı. Ancak mesele yalnızca mizah değil, teknik boyutu da var.
Dil modelleri, yazılan her kelimeyi analiz ettiği için “lütfen” ya da fazladan bir virgül bile yanıtı etkileyebilir. Sorun şu ki bu etkinin nasıl ve ne yönde olacağını öngörmek son derece zor.
2024’te yapılan bir araştırma, nazik sorular sorulduğunda modellerin daha doğru yanıt verdiğini ortaya koydu. Hatta kültürel farklılıklar bile gözlendi. İngilizce ve Çince’de olumlu sonuçlar görülürken, Japonca konuşan sohbet robotları aşırı nezaket karşısında biraz daha düşük performans sergiledi.
Ancak başka küçük çaplı testlerde, önceki ChatGPT sürümlerinin hakaret edildiğinde daha doğru sonuç verdiği bile iddia edildi.
Genel tablo ise net: Bu konuda yeterli ve tutarlı bilimsel veri yok. Üstelik yapay zekâ modelleri sürekli güncellendiği için araştırmalar hızla geçerliliğini yitiriyor.
Artık Küçük Dil Oyunları Etkili Değil
Uzmanlara göre son birkaç yılda yapay zekâ modelleri ciddi biçimde gelişti. Broadcom’da uygulamalı makine öğrenimi mühendisi Rick Battle, geçmişte dildeki küçük değişikliklerin sonucu ciddi biçimde etkileyebildiğini söylüyor.
Battle “O dönem tamamen şans işiydi” diyor
Ancak bugün ChatGPT, Gemini ya da Claude gibi yaygın ürünlerde kullanılan yeni modeller, sorunun en önemli kısmını daha iyi ayırt edebiliyor. Küçük dil oyunlarının tutarlı bir avantaj sağlaması artık pek mümkün görünmüyor.
Bu durum, insanlarda oluşan “yapay zekânın ruh hâli varmış gibi davranma” eğilimini de sorgulatıyor. Şirketler, bu araçları insana benzer bir üslupta tasarlıyor. Bu da onların sanki yönlendirilebilir bir kişiliğe sahipmiş gibi algılanmasına yol açıyor. Oysa uzmanlar net konuşuyor: Yapay zekâ canlı değil, yalnızca taklit ediyor.
Daha iyi sonuç almak istiyorsanız, onu bir insan gibi değil, bir araç gibi kullanmanız gerekiyor.
Yapay Zekâyla Daha Verimli İletişim İçin Öneriler
1. Tek Cevap İstemeyin
Uzmanlar, tek bir yanıt yerine üç ya da beş alternatif istemeyi öneriyor. Örneğin bir metin yazdırıyorsanız, farklı tonlarda birkaç seçenek talep edin. Bu yaklaşım, hem modeli daha esnek düşünmeye zorluyor hem de kullanıcının kendi tercihlerini netleştirmesini sağlıyor.
2. Örnek Verin
Birçok kullanıcı, “Bu benim tarzım değil” diyerek yapay zekâdan gelen metinleri eleştiriyor. Uzmanlara göre çözüm basit: Örnek paylaşmak.
“Daha önce yazdığım 10 e-posta burada, aynı üslubu kullan” demek, uzun talimat listelerinden çok daha etkili.
3. Soru Sormasını İsteyin
Örneğin bir iş ilanı hazırlamak istiyorsanız, yapay zekâdan size tek tek sorular yöneltmesini isteyebilirsiniz. Bu yöntem, modelin yanıtlarını verdiğiniz bilgilere göre uyarlamasını sağlıyor.
4. Rol Yapma Konusunda Dikkatli Olun
Bir dönem, “Matematik profesörü gibi davran” demenin doğruluğu artırdığı düşünülüyordu. Ancak uzmanlar, tek doğru cevabı olan sorularda rol yapmanın ters etki yaratabileceğini söylüyor.
Bu yaklaşım, modelin kendine aşırı güvenli yanıtlar üretmesine ve “halüsinasyon” olarak bilinen hatalı bilgi üretimine yol açabiliyor.
Buna karşılık, yaratıcı fikir üretimi, beyin fırtınası ya da tavsiye gerektiren konularda rol yapma oldukça işe yarayabiliyor.
5. Tarafsız Kalın
Eğer iki seçenek arasında karar vermeye çalışıyorsanız, eğiliminizi baştan belli etmeyin. “Toyota’ya daha yakınım” demek, büyük ihtimalle Toyota lehine bir yanıt almanıza yol açacaktır.
Peki “Lütfen” ve “Teşekkürler”?
2019’da yapılan Pew Research Center araştırmasına göre Amerikalıların yarısından fazlası akıllı hoparlörleriyle konuşurken “lütfen” diyor. 2025’te yapılan başka bir ankette ise kullanıcıların yüzde 70’inin yapay zekâya karşı nazik olduğu görüldü.
Katılımcıların çoğu bunun “doğru olan” davranış olduğunu söyledi. Yüzde 12’lik bir kesim ise olası bir robot ayaklanmasına karşı tedbir aldığını belirtti.
Uzmanlara göre nezaket, modelin performansını doğrudan artırmasa da kullanıcının konforunu artırabiliyor. Ve bu da dolaylı olarak daha verimli bir kullanım sağlayabiliyor. Ayrıca işin bir de insani boyutu var.
Filozof Immanuel Kant, hayvanlara zalim davranmamanın gerekçelerinden birinin, bunun insanın kendi karakterini de zedelemesi olduğunu savunuyordu. Aynı mantık yapay zekâ için de düşünülebilir. Onun duyguları yok, incinmez. Ama kaba davranmak sizi daha sert bir insan yapabilir.
Sonuç olarak yapay zekâya nasıl hitap ettiğiniz tamamen önemsiz değil; ancak mucizevi kelimeler de yok. Asıl fark yaratan şey, talebinizi açık, net ve yapılandırılmış biçimde ifade etmeniz.
Yapay zekâyı bir insan gibi yönetmeye çalışmak yerine, onu doğru kullanan bir araç hâline getirmek, hem zaman hem enerji açısından daha verimli sonuçlar doğuruyor.



