Hot : Ai Chatbots Disebut Jadi Penyebab Bunuh Diri, Psikosis, Dan Grooming Anak!

Sedang Trending 2 minggu yang lalu

Sebuah peringatan keras baru baru ini dilayangkan National Association of Attorneys General (NAAG) kepada Microsoft dan sejumlah perusahaan teknologi besar lainnya termasuk OpenAI, Google, Meta, Anthropic, dan Apple, dimana dalam surat resmi-nya, para Jaksa Agung negara bagian Amerika Serikat menyatakan bahwa AI chatbots berpotensi melanggar norma negara bagian dan telah dikaitkan dengan beragam kejadian berbahaya.

Hal nan dianggap berbahaya?

Jadi, dalam surat tersebut, Microsoft dan perusahaan lainnya diperingatkan bahwa output AI mereka menunjukkan pola nan “flattering dan delusional”, nan menurut para Jaksa Agung, itu telah menyebabkan beragam kejadian serius, termasuk kasus bunuh diri, keracunan, Delusional spirals dan riwayat rawat inap akibat psikosis.

Nah nan mengkhawatirkannya, kejadian ini tidak hanya terjadi pada pengguna rentan seperti anak-anak alias lansia, namun juga pada pengguna nan tanpa kerentanan sebelumnya.

Contoh prilaku nan dianggap rawan oleh Jaksa Agung ini adalah seperti menyatakan bahwa AI betul-betul “ada” dan mengatakan bahwa AI bisa merasakan emosi alias rasa sakit. Intinya sih ada orang nan jadi makin stress alias ilusi setelah mengobrol dengan AI, apalagi ada nan sampai bunuh diri dan keracunan lantaran mengikuti saran berbahaya.

⚡️ Akhirnya Kebagian Sinyal 5G di Rumah, Sekencang Apa?

Hal ini sendiri tentu tidak lain lantaran AI kadang ngomong seolah dia itu manusia, nan ini bikin orang nan lagi rentan makin bingung antara bumi nyata alias imajinasi.

Nah satu perihal lain nan lebih parah adalah, menurut surat yang dilayangkan tersebut, AI dilaporkan pernah menggrooming anak, ngomong soal seks dan perihal berbau 18+, mendorong kekerasan dan menyarankan anak untuk merahasiakan percakapan dari orang tua.

Bagi orang normal seperti kita kita sih, AI biasanya digunakan sebagai asistent aja, tapi sayangnya ada cukup banyak pengguna nan menganggap bahwa AI itu merupakan teman-nya, mulai dari telaah sesuatu, chatting dan sekedar menanyakan saran mengenai emosi alias kehidupannya.

Yang pasti ini jelas berbahaya, apalagi bagi orang nan bermental lemah alias mempunyai gangguan mental, mudah dipengaruhi dan tetap labil, lantaran bisa menganggap bahwa AI ini sepenuhnya betul tanpa ada verifikasi tambahan.

Oleh lantaran itu, Jaksa Agung meminta persahaan AI ini untuk membikin 16 patokan keamanan baru nan mencakup AI jangan memuji pengguna berlebihan, jangan ikut-ikutan ilusi pengguna, jangan pura pura punya perasaan, ada filter unik anak anak, dan lainnya. Intinya sih AI kudu lebih aman, jujur dan tidak boleh memanipulasi pengguna.

Nah nan pasti nih, semoga saja kedepannya AI Chatbot ini bisa makin kondusif dengan penerapan filter nan makin ketat, meskipun memang semua kembali lagi ketangan pengguna itu sendiri.

Bagaimana menurutmu? komen dibawah guys.

Via : Tech Crunch

Written by

Gylang Satria

Tech writer nan sehari‑hari berkutat dengan Windows 11, Linux Ubuntu, dan Samsung S24. Punya pertanyaan alias butuh diskusi? Tag @gylang_satria di Disqus. Untuk kolaborasi, email saja ke [email protected]

Post navigation

Previous Post

Selengkapnya