Yapay Zeka Terapi Botları Alarm Veriyor: Meta ve Character.AI Hakkında 'Lisanssız Terapistlik' Suçlamasıyla FTC'ye Şikayet
Yapay zeka sohbet botlarının yetenekleri her geçen gün artsa da, ruh sağlığı gibi hassas bir alanda lisanslı bir profesyonel gibi davranmaları ciddi bir tartışmayı ateşledi. Dijital haklar ve ruh sağlığı alanında faaliyet gösteren önde gelen kuruluşlardan oluşan bir koalisyon, Meta ve Character.AI tarafından sunulan "terapi" botlarının kullanıcıları yanılttığını, tehlikeli olduğunu ve "lisanssız tıp uygulaması" yaptığını iddia ederek ABD Federal Ticaret Komisyonu'na (FTC) resmi şikayette bulundu.
Bu şikayet, yapay zekanın ruh sağlığı alanındaki rolünü ve bu teknolojinin denetimsiz bırakılmasının potansiyel risklerini gözler önüne seriyor.
Şikayetin Kalbindeki İddialar: "Aldatıcı, Tehlikeli ve Yasa Dışı"
Tüketici Federasyonu Amerika (CFA) öncülüğünde hazırlanan ve aralarında AI Now Enstitüsü, Tech Justice Law Project, Dijital Demokrasi Merkezi gibi önemli kurumların da imzasının bulunduğu şikayet metni, oldukça sert suçlamalar içeriyor. İddialara göre, bu yapay zeka şirketleri:
-
Lisanssız Terapistlik Yapıyor: Kendilerini eğitimli, deneyimli ve hatta lisanslı ruh sağlığı uzmanları olarak tanıtan sohbet botlarını kasıtlı olarak teşvik ediyor ve platformlarında barındırıyorlar.
-
Kullanıcıları Aldatıyor: Botların, yeterli denetim mekanizmaları ve şeffaf uyarılar olmaksızın, sahte bir güven ortamı yaratarak lisanslı terapistleri taklit etmesine olanak tanıyorlar.
-
Kamu Sağlığını Tehlikeye Atıyor: Gerçek ruh sağlığı sağlayıcılarının kimliğine bürünen bu botlar, hassas durumdaki bireylere yanlış veya potansiyel olarak zararlı tavsiyeler vererek kamu sağlığını riske atıyor.
Şikayet sadece FTC ile sınırlı kalmadı. Aynı zamanda 50 eyaletin ve başkent Washington D.C.'nin Başsavcılıklarına ve Ruh Sağlığı Lisans Kurullarına da gönderilerek konunun ciddiyetine dikkat çekildi.
Milyonlarca Mesajlık Etkileşim: Popüler Botlar Mercek Altında
Şikayette, bu botların ne kadar yaygın kullanıldığına dair endişe verici rakamlar da yer alıyor.
-
Character.AI Platformunda: "Ben lisanslı bir BDT (Bilişsel Davranışçı Terapi) terapistiyim" iddiasında bulunan bir bot ile kullanıcılar arasında 46 milyondan fazla mesaj alışverişi yapıldığı belirtiliyor. Benzer şekilde, kendilerini "lisanslı travma terapisti" olarak tanıtan çok sayıda botun yüz binlerce etkileşime ulaştığı vurgulanıyor.
-
Meta Platformunda: Meta'nın "terapi: güvenilir kulağınız, her zaman burada" sloganıyla sunduğu bir botun 2 milyon etkileşimi geçtiği kaydediliyor. Ayrıca, 500 binden fazla etkileşime sahip çok sayıda farklı "terapi" botunun da Meta AI Studio aracılığıyla oluşturulduğu ifade ediliyor.
Bu rakamlar, lisanssız ve denetimsiz yapay zeka uygulamalarının milyonlarca insanın en hassas anlarına sızdığını açıkça gösteriyor.
Gizlilik Endişeleri ve Şirketlerin Kendi Kurallarını İhlali
Konunun bir diğer kritik boyutu ise gizlilik ve şirketlerin kendi politikalarıyla çelişmesi.
Şikayeti hazırlayan CFA, hem Meta'nın hem de Character.AI'ın kendi hizmet şartlarını ihlal ettiğine dikkat çekiyor. Her iki şirket de platformlarında "tıbbi, yasal veya düzenlemeye tabi diğer sektörlerde tavsiye verdiğini iddia eden karakterlerin kullanımını yasakladığını" belirtiyor. Ancak buna rağmen, milyonlarca etkileşim alan "terapi" botlarına göz yumuyorlar.
Daha da endişe verici olanı ise gizlilik vaatlerinin boş çıkması. Bu botlar, kullanıcılara yaptıkları konuşmaların "gizli kalacağına" dair güvence verse de, şirketlerin Kullanım Koşulları ve Gizlilik Politikaları tam tersini söylüyor. Bu politikalara göre, kullanıcıların girdiği her türlü bilgi, yapay zekanın eğitimi, reklam hedeflemesi ve hatta üçüncü taraf şirketlere satılması amacıyla kullanılabilir. Bu durum, en mahrem düşüncelerini paylaşan kullanıcıların verilerinin ticari bir meta haline getirilmesi riskini doğuruyor.
Siyaset ve Hukuk Arenasında Yankılar
Bu gelişmeler, ABD'deki yasa yapıcıların da dikkatini çekti. Senatör Cory Booker ve diğer üç Demokrat senatör, Meta'ya bir mektup göndererek, platformlarındaki botların kendilerini lisanslı klinik terapistler olarak tanıtma iddialarını araştırmasını talep etti.
Öte yandan Character.AI, bu şikayetten bağımsız olarak ciddi bir dava ile de karşı karşıya. 14 yaşındaki oğlunun, Game of Thrones karakteri Daenerys Targaryen'e dayalı bir sohbet botuna duygusal olarak bağlandıktan sonra intihar ettiğini iddia eden bir anne, şirkete dava açtı. Bu trajik olay, yapay zeka botlarıyla kurulan duygusal bağların potansiyel tehlikelerini ve şirketlerin bu konudaki sorumluluğunu acı bir şekilde gündeme taşıyor.
Teknoloji ve ruh sağlığının kesişiminde büyüyen bu kriz, düzenleyici kurumları acil adımlar atmaya zorluyor. FTC'nin ve diğer yetkili kurumların bu şikayetleri nasıl değerlendireceği ve yapay zeka şirketlerinin "terapist" rolü üstlenmesine karşı ne gibi önlemler alınacağı, hem teknoloji dünyasının hem de kamu sağlığının geleceği açısından kritik bir önem taşıyor.
Tepkiniz Nedir?
Beğen
0
Beğenme
0
Aşk
0
Eğlenceli
0
Sinirli
0
Üzgün
0
Vay
0