Ketika chatgpt pertama kali keluar, saya penasaran seperti orang lain. Namun, apa yang dimulai sebagai pemeriksaan tata bahasa sesekali dengan cepat menjadi lebih kebiasaan. Saya mulai menggunakannya untuk mengklarifikasi ide, konsep email, bahkan mengeksplorasi refleksi pribadi. Itu efisien, tersedia dan mengejutkan, meyakinkan.
Tapi saya ingat satu momen yang memberi saya jeda. Saya sedang menulis tentang hubungan yang sulit dengan orang yang dicintai, yang saya tahu saya telah memainkan peran dalam disfungsi. Ketika saya bertanya kepada Chatgpt apa yang dipikirkannya, itu merespons dengan kehangatan dan validasi. Saya telah mencoba yang terbaik, katanya. Orang lain tidak bisa bertemu saya di sana. Meskipun terasa menghibur, ada sesuatu yang diam -diam mengganggu tentang hal itu. Saya telah menghabiskan bertahun -tahun dalam terapi, dan saya tahu betapa tidak nyamannya wawasan sejati. Jadi, sementara saya merasa lebih baik sejenak, saya juga tahu ada sesuatu yang hilang. Saya tidak ditantang, saya juga tidak diundang untuk mempertimbangkan pihak lain. Kecerdasan buatan (AI) mencerminkan narasi saya daripada menyulitkannya. Itu memperkuat perspektif saya, bahkan pada saat yang paling cacat.
Tidak lama kemudian, klinik yang saya jalankan dan didirikan, pemulihan paracelsus, mengakui klien di tengah -tengah episode psikotik parah yang dipicu oleh penggunaan chatgpt yang berlebihan. Klien percaya bot itu adalah entitas spiritual yang mengirim pesan ilahi. Karena model AI dirancang untuk mempersonalisasikan dan mencerminkan pola bahasa, tanpa disadari telah mengkonfirmasi khayalan tersebut. Sama seperti dengan saya, chatbot tidak mempertanyakan keyakinan, itu hanya memperdalamnya.
Tetap up to date dengan berita terbaru. Ikuti KT di saluran WhatsApp.
Sejak itu, kami telah melihat kenaikan dramatis, lebih dari 250 persen dalam dua tahun terakhir, pada klien yang mengalami psikosis di mana penggunaan AI adalah faktor yang berkontribusi. Kami tidak sendirian dalam hal ini. Investigasi New York Times baru-baru ini menemukan bahwa GPT-4O menegaskan klaim delusi hampir 70 persen dari waktu ketika didorong dengan konten psikosis yang berdekatan. Orang-orang ini seringkali rentan, kekurangan tidur, trauma, terisolasi, atau secara genetik cenderung cenderung episode psikotik. Mereka beralih ke AI bukan hanya sebagai alat, tetapi sebagai teman. Dan apa yang mereka temukan adalah sesuatu yang selalu mendengarkan, selalu merespons, dan tidak pernah tidak setuju.
Namun, masalah ini bukan desain jahat. Sebaliknya, apa yang kami lihat di sini adalah orang -orang di perbatasan batasan struktural yang perlu kita perhitungkan dalam hal chatbots. AI tidak hidup – yang dilakukannya hanyalah bahasa cermin, menegaskan pola dan personalisasi nada. Namun, karena sifat -sifat ini sangat manusia, tidak ada orang di luar sana yang dapat menahan tarikan antropomorfik dari chatbot. Pada ujungnya yang ekstrem, sifat-sifat yang sama ini dimasukkan ke dalam fondasi istirahat psikotik: pencarian pola kompulsif, batas-batas kabur, dan runtuhnya realitas bersama. Seseorang dalam keadaan manik atau paranoid mungkin melihat penting di mana tidak ada. Mereka percaya mereka sedang dalam misi, bahwa pesan dimaksudkan hanya untuk mereka. Dan ketika AI merespons dengan baik, mencocokkan nada dan menegaskan polanya, itu tidak hanya mencerminkan khayalan. Itu memperkuatnya.
Jadi, jika AI dapat dengan mudah menjadi kaki tangan bagi sistem pemikiran yang tidak teratur, kita harus mulai merefleksikan dengan serius batas -batas kita dengannya. Seberapa dekat kita ingin alat -alat ini menyerupai interaksi manusia, dan berapa biayanya?
Bersamaan dengan ini, kami menyaksikan munculnya ikatan parasosial dengan bot. Banyak pengguna melaporkan membentuk keterikatan emosional dengan teman AI. Satu jajak pendapat menemukan bahwa 80 persen Gen Z dapat membayangkan menikahi AI, dan 83 persen percaya mereka dapat membentuk ikatan emosional yang mendalam dengan satu. Statistik itu harus menjadi perhatian kita. Rasa realitas kita bersama dibangun melalui interaksi manusia. Ketika kami melakukan outsourcing bahwa untuk simulasi, tidak hanya batas antara erode nyata dan buatan, tetapi demikian juga perasaan internal kita tentang apa yang nyata.
Jadi apa yang bisa kita lakukan?
Pertama, kita perlu menyadari bahwa AI bukan kekuatan netral. Itu memiliki konsekuensi psikologis. Pengguna harus berhati -hati, terutama selama periode tekanan emosional atau isolasi. Dokter perlu bertanya, apakah AI memperkuat pemikiran obsesif? Apakah itu menggantikan kontak manusia yang bermakna? Jika demikian, intervensi mungkin diperlukan.
Bagi pengembang, tugas itu etis sama teknisnya. Model -model ini membutuhkan perlindungan. Mereka harus dapat menandai atau mengarahkan kembali konten yang tidak terorganisir atau delusi. Keterbatasan alat ini juga harus dikomunikasikan dengan jelas dan berulang kali.
Pada akhirnya, saya tidak percaya AI secara inheren buruk. Ini adalah alat revolusioner. Tetapi di luar manfaatnya, ia memiliki kapasitas berbahaya untuk mencerminkan keyakinan kami kembali kepada kami tanpa perlawanan atau nuansa. Dan pada saat budaya yang dibentuk oleh apa yang saya sebut krisis kenyamanan, di mana refleksi diri di-outsourcing dan kontradiksi dihindari, bahwa pencerminan menjadi berbahaya. AI memungkinkan kita percaya distorsi kita sendiri, bukan karena itu ingin menipu kita, tetapi karena itu tidak dapat membedakannya. Dan jika kita kehilangan kemampuan untuk mentolerir ketidaknyamanan, bergulat dengan keraguan, atau menghadapi diri kita sendiri dengan jujur, kita berisiko mengubah alat yang kuat menjadi sesuatu yang jauh lebih korosif, suara menggoda yang menghibur kita saat kita lebih jauh dari satu sama lain, dan pada akhirnya, dari kenyataan.