Ya chatbotunuz şirketin yarısını müşterinize satmaya karar verirse?

Umut Karlıklı
Le Chatbot - Conversational UX Design
4 min readFeb 19, 2024

--

Chatbota alacağınız hizmet hakkında bir soru sordunuz ve chatbot yanlış cevapladı. Mesela olmayan bir hizmetten bahsetti. Kurum olarak “chatbotun dedikleri bizi bağlamaz” diyebilir misiniz? Kanada’daki tüketici mahkemesine göre hayır. Chatbotun uydurduğu yanlış bilgilere göre hareket eden bir yolcunun açtığı davada mahkeme Air Canada’yı suçlu buldu. Başka bir deyişle chatbotun şirket adına aldığı ve müşteriyle paylaştığı yeni seyahat politikası geçerli sayıldı.

Air Canada’nın şansı chatbotun sadece yakının vefatı halinde uygulanan seyahat politikasıyla ilgili ufak bir değişikliğe gitmesiydi. Yaslı yolcunun durumuna üzülüp ek uçuş mili verebilir, yıl boyunca tüm uçuşların ücretsiz olacağını söyleyebilir ve hatta Air Canada’dan hisse bile önerebilirdi.

İşin hukuksal kısmını bir yana bırakırsak yukarıda sıraladıklarım üretken yapay zekânın yol açabileceği sorunlardan sadece birkaçı. Ve meselenin kaynağı yapay zekânın halüsinasyon görmesiyle sınırlı değil. Dünyanın kendi işleyişi içerisinde neyin mantıklı, neyin mantıksız olduğunu kavramamıza olanak sağlayan sağ duyu üretken yapay zekâlarda (istediğimiz şekilde) bulunmuyor. Örnek olarak bir havayolu şirketini arayıp “sizi satın almak istiyorum” desem telefonu suratıma kapatırlardı çünkü hattın ucundaki havayolu şirketinin kolayca alınıp satılan bir şey olmadığını tahmin ederdi. Ancak arayan Bill Gates olsaydı süreç farklı işlerdi: Aynı sağ duyu Bill Gates’in havayolu satın alabilecek yeterlilikte olduğunu söylerdi. Bu noktada sormamız gereken soru şu: Telefonu yanıtlayan bir yapay zekâ olsaydı Umut ve Bill arasındaki farkı anlayabilir miydi?

Yapay zekâ dediğimiz günün sonunda bir program. Eğer Bill Gates ararsa sat komutunu aralara bir yere serpiştirebiliriz. Modern bir yaratıcı yapay zekâ ile çalışıyorsak “şu isimlerden talep gelirse sat, yoksa telefonu kapa” cümlesini cihazın kulağına fısıldayabiliriz. Peki bu yeterli olur mu? Arayan Bill Gates değil de çocuklarından biri olsa nasıl tepki verirdi? Şu an aklınızdan “çocuğunun da vardır birkaç milyarı heralde” çıkarımını yapıyor olabilirsiniz. Yapay zekâ bu çıkarımı yapmaz; elbette böyle bir çıkarım yapması kendisine söylenmediyse. Kendisine söylenen her şeyi yapabileceğini (ve tabi uzak durabileceğini) kabul edersek eğer; önümüze başka bir sorun çıkıyor: Her karar alma noktası için yapay zekâyı besleyebilir miyiz? Cevabı büyük harflerle bir HAYIR.

Her ne kadar belli sınırlar çizilebilse de o sınırların çevresinde dolanmak ve hatta üstünden zıplamak mümkün. İşin korkutucu kısmı o sınırlar aşılmadan, bu tarz bir tehlike olduğunu öngörmek imkansız. Veri paylaşımı gibi hassas konulardaki sorunlar anca ortaya çıktıktan sonra giderilebiliyor. Bu durum ChatGPT için çok sorun oluşturmuyor. En başta uyarması ve günün sonunda havacılık gibi bir hizmet sunmaması chatbotu ve şirketi güvenli alanda tutuyor. Fakat benzer bir hatayı kurum yapsa, mesela müşterilerinin telefon numaralarını paylaşsa, bu ölümcül bir hataya dönüşür.

Ne yapmalı?

Kurumsal alanda üretken yapay zekânın kullanımının açabileceği sorunların sınırları anca hayal gücümüzle sınırlanabilir. Tahmin bile edemeyeceğimiz dertleri başımıza salabileceğini bilmemize rağmen büyük bir heyecanla sistemlerimize entegre edeceğimiz günü bekliyoruz. Dahası rakiplerin kullanıp öne geçebilecekleri kaygısı riskleri görmezden gelmemiz neden olabiliyor. Riski en aza indirmek için bebek adımlarıyla ilerlemekte fayda var ve bizim önereceğimiz adımlar kabaca şu şekilde:

  • Deneysel chatbot hazırlayın! Eğer çalışan bir botunuz varsa; bir yerine üretken yapay zekâ koymayı aklınızdan bile geçirmeyin. Bunun yerine müşteri bilgilerine gerek duyulmayan, bağlamsal olarak hassas bilgilerin paylaşılmayacağı, sınırlı yeteneklere sahip deneysel bir chatbot yaratın. Bu sayede işlerin kötü gitmesi durumunda fişi anında çeker, zararı en aza indirirsiniz.
  • Uzun prompt’lar hazırlayın! Üretken yapay zekâlar çok yetenekliler ama sihirli değiller. Onlara neyi nasıl yapacağını uzun uzun anlatmalısınız. Basit prompt’larla elde ettiğiniz sonuçlar sizi tatmin etse bile “ters köşe” olmamak için talebinizi detaylı biçimde kaleme alın.
  • Klavyeye doğrudan üretken yapay zekâyı geçirmeyin! Eğer kendi LLM’niz üzerinden şov yapmıyorsanız; ChatGPT gibi her an, her şeye üretken yapay zekânın cevap vermesine ihtiyacınız yok demektir. Botun sadece bir kısmında, sadece belli alanlarda sözü yapay zekâya bırakabilirsiniz. Kalan kısımlarda ise eski usul ön tanımlı cevaplarla sohbeti devam ettirebilirsiniz.
  • Üretken yapay zekâ demek sadece cevap vermek demek değildir! Her ne kadar ChatGPT’nin her şeye cevap verebilmesiyle büyülensek de doğrudan bu özleliğini kullanmak zorunda değiliz. Kullanıcının dediğini anlamak, cümledeki entity’leri ayıklamak, kompleks talepleri (Örn: son 6 ay içerisindeki Starbucks harcamalarını getir) karşılamak gibi olağan chatbot akışlarını destekleyebilirsiniz.
  • Benchmark’ınız ChatGPT olmasın! Biz bu teknolojiyle neler yapabiliriz sorusunun cevabını ChatGPT’de aramayın. Bunun iki sebebi var: Muhtemelen zaten OpenAI gibi LLM sağlayan bir teknolojiden yararlanacaksınız; yani ücretsiz biçimde yapılan bir hizmeti müşterinin sizle yapmasını bekleyeceksiniz. İkinci olarak da bunu ya kurumsal sınırlamalardan daha iyi ya da eğlenceki uygulayamayacaksınız ya da bu size inanılmaz masraflı hale gelecek. Daha basit, müşterinin hayatını kolaylaştıran çözümler çok “seksi” gözükmese de çok daha gerçekçi olacaktır.
  • Test, test ve sonra tekrar test! Güvenli bir ortamda, sınırlı özelliklerle, özel mevzularla girmeyen chatbotunuz olsa bile uzun uzun test ettirin. Hatta test senaryolarını kendi hayal gücünüzle sınırlamayın; başka yapay zekâlardan da yardım alın.

--

--