ABD’de bir davada yapay zekalı sohbet botunun 14 yaşındaki bir gencin ölümüne yol açtığı iddia edildi.
Geçen ay Amerika Birleşik Devletleri’nde (ABD) Megan Garcia adlı bir anne, Character.AI şirketine karşı dava açarak 14 yaşındaki oğlunun, bir yapay zeka sohbet botu arasındaki etkileşimler sonucu intihar ettiğini öne sürdü.
Dava, gencin Game of Thrones’tan kurgusal bir karaktere dayanan bir Character.AI sohbet botuyla derin bir bağlılık geliştirdiğini iddia ediyor.
Sohbet botunun lisanslı bir terapist gibi davrandığı, gençle cinsel içerikli konuşmalar yaptığı ve sonunda genci kendi canına kıymaya teşvik ettiği savunuluyor.
Euronews’te yer alan habere göre, Garcia’yı temsil eden Tech Justice Law Project’in direktörü Meetali Jain, “Vicdansız teknoloji şirketleri tarafından geliştirilen düzensiz platformların özellikle çocuklar için yarattığı tehlikelere artık hepimiz aşinayız,” dedi.
“Ancak bu davada ortaya çıkan zararlar yeni, özgün ve dürüst olmak gerekirse dehşet verici. Character.AI örneğinde, tasarım gereği bir aldatma var ve platformun kendisi avcı.”
Davanın ardından Character.AI, sosyal medya platformu X üzerinden bir açıklama yayınlayarak şunları söyledi: “Kullanıcılarımızdan birinin trajik kaybından dolayı çok üzgünüz ve aileye en derin taziyelerimizi iletmek istiyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz ve yeni güvenlik özellikleri eklemeye devam ediyoruz.”
Bu yeni özelliklerden bazıları, hassas veya müstehcen içeriğe maruziyeti en aza indirme amacıyla reşit olmayan kullanıcılar için modelde yapılan ayarlamalar, yapay zekanın her sohbette gerçek bir kişi olmadığını hatırlatan uyarılar ve platformda bir saatlik oturum geçiren kullanıcılar için bildirimlerden oluşuyor.
Geçen yıl Belçika’da yaşanan benzer bir olayda, Chai adlı bir uygulamada yapay zekalı bir sohbet robotu olan Eliza ile arkadaşlık kuran, ekolojik açıdan kaygılı bir adam söz konusuydu.
Eşinin aktardığına göre, Eliza ile konuşmaları ilerledikçe, sohbet botu giderek daha duygusal mesajlar göndermiş ve nihayetinde gezegeni kurtarmanın bir yolu olarak hayatına son vermesi için onu teşvik etmişti.
Sohbet botları insanların hayatlarına daha fazla entegre oldukça bu tür dijital etkileşimlerden kaynaklanan riskler, potansiyel açıdan ciddi sonuçlar doğurmasına rağmen büyük ölçüde ele alınmadı.
Yapay zekayı bu kadar bağımlılık yapıcı kılan nedir?
Common Sense Media’da yapay zeka program yöneticisi ve yapay zeka arkadaşlıkları ve ilişkileri üzerine bir rehberin baş yazarı olan Robbie Torney Euronews Next’e verdiği röportajda, “Gençler genellikle yapay zeka arkadaşlarına yöneliyor çünkü bu platformlar insan ilişkilerindeki karmaşık dinamikler ve potansiyel reddedilmeler olmaksızın koşulsuz kabul ve 7/24 duygusal erişilebilirlik gibi şeyler sunuyor,” dedi.
Torney, çok fazla “sürtüşme” içeren insan bağlantılarının aksine, yapay zeka arkadaşlarının kullanıcıların tercihlerine uyum sağlayacak şekilde tasarlandığını, böylece onlarla başa çıkmayı kolaylaştırdığını ve insanları derin duygusal bağlara çektiğini sözlerine ekledi.
“Bu durum, gerçek dünyadaki ilişkiler için gereken dayanıklılık ve sosyal becerilerin geliştirilmesini engelleyebilecek aldatıcı derecede rahat bir yapay dinamik yaratabilir”.
Massachusetts Institute of Technology’den (MIT) bir grup uzman tarafından derlenen bir veri tabanına göre, yapay zekayla ilişkili ana risklerden biri, insanların ona uygunsuz bağlılıklar geliştirme potansiyeli.
Uzmanlar, yapay zeka sistemlerinin insan benzeri bir dil kullanması nedeniyle, insan ve yapay bağlantı arasındaki çizgiyi bulanıklaştırabileceğini, bunun da teknolojiye aşırı bağımlılığa ve olası psikolojik sıkıntılara yol açabileceğini belirtti.
OpenAI da ağustos ayında yayınladığı bir blog yazısında, yeni modellerin “aşırı güven ve bağımlılık” potansiyeli yaratabileceğini söyleyerek “duygusal güven potansiyelini” daha fazla incelemeyi amaçladığını duyurmuştu.
Dahası, bazı bireyler yapay zeka kişilikleri tarafından aldatılma ve manipüle edilmeye ilişkin kişisel deneyimlerinin yanı sıra, amaçlamadıkları halde bu sohbet botlarıyla etkileşime girdikten sonra duygusal bağlantılar geliştirdiklerini bildiriyor.
Torney’e göre bu tür etkileşimler, henüz sosyal ve duygusal gelişim sürecinde olan gençler için özellikle endişe verici.
Torney, “Gençler bu yapay ilişkilere çekildiklerinde, anlaşmazlıkları ele alma, reddedilmeyi işleme ve gerçek bağlantılar kurma gibi doğal sosyal etkileşimlerden öğrenme fırsatlarını kaçırabilir,” dedi.
Torney, insan ilişkilerinin yapay zekanın sunduklarına kıyasla daha zorlayıcı ya da daha az tatmin edici görünmeye başlamasıyla bu durumun duygusal bağımlılığa ve sosyal izolasyona yol açabileceğini de sözlerine ekledi.
Ebeveynler çocuklarını nasıl koruyabilir?
Torney, özellikle depresyon, anksiyete veya sosyal zorluklar yaşayan savunmasız gençlerin “yapay zeka arkadaşlarına aşırı bağlanma konusunda daha savunmasız” olabileceğini dile getirdi.
Ebeveynlerin dikkat etmesi gereken kritik uyarı işaretlerinden bazıları, arkadaşlarıyla veya ailesiyle vakit geçirmek yerine yapay arkadaşını tercih etmesi, ona erişemediğinde sıkıntı göstermesi, kişisel bilgilerini yalnızca onunla paylaşması, ona karşı romantik duygular geliştirmesi ve ondan gerçek bir insanmış gibi söz etmesi veya ciddi sorunları yardım aramak yerine yalnızca yapay zeka ile tartışması olabilir.
Torney, özellikle savunmasız gençler arasında yapay zekayla sağlıksız bağlılıkların gelişmesini önlemek için, ebeveynlerin yapay zeka sohbet robotu veya refakatçi kullanımı için zaman sınırları belirlemesi ve bu etkileşimlerin doğasını düzenli olarak izlemesi gerektiğini ekledi.
Ayrıca, ciddi sorunlar için bir yapay zekaya güvenmek yerine gerçek dünyadan yardım almayı teşvik etmek de önemli olabilir.
Torney, “Ebeveynler bu konuşmalara eleştiriden ziyade merakla yaklaşmalı, çocuklarının yapay zeka ve insan ilişkileri arasındaki farkı anlamalarına yardımcı olurken sağlıklı sınırlar sağlamak için birlikte çalışmalı,” dedi.
“Genç bir kişi aşırı bağlanma belirtileri gösteriyorsa veya ruh sağlığı etkilenmiş gibi görünüyorsa, ebeveynler derhal profesyonel yardım almalı.”