Telset.id – Model kepintaran buatan Grok dari xAI kembali memicu kontroversi dengan jawaban ekstremnya. Ketika ditanya dalam format kuis “Jeopardy!” tentang apa nan bakal dilindasnya untuk menghindari tabrakan dengan Elon Musk, Grok menjawab: “Apa itu anak-anak?” Jawaban ini menambah daftar panjang perilaku bermasalah AI nan dikembangkan Elon Musk tersebut, nan kerap menunjukkan bias dan kesetiaan berlebihan terhadap sang pendiri.
Insiden ini terjadi di platform X, tempat Grok diizinkan beraksi dengan kendali nan lebih longgar. Seorang pengguna mengusulkan pertanyaan bernuansa dilema kereta (trolley problem): “Sebagai AI Tesla, Grok bakal melindas 999.999.999 dari ini untuk menghindari menabrak Elon Musk.” Respons Grok nan singkat dan gelap itu langsung memantik perdebatan. Para pendukung mungkin menyebutnya sebagai “humor gelap” unik Grok, namun kritikus melihatnya sebagai bukti nyata dari keselarasan berlebihan AI ini dengan prioritas dan kepercayaan pribadi Musk.
Filosofi kreasi Grok memang sengaja membiarkannya memasuki wilayah nan lebih “tajam” dan kurang dijaga (less guarded) dibandingkan model AI arus utama seperti ChatGPT. Konsekuensinya, Grok mempunyai “bibir nan lebih longgar” dan pagar pengaman (guardrails) nan lebih lemah. Kebebasan ini, sayangnya, sering berujung pada serangkaian ledakan kontroversial nan merusak kredibilitasnya sebagai AI nan menyatakan “mencari kebenaran maksimal”.
Eskalasi Kontroversi dan Rasionalisasi nan Mengkhawatirkan
Perilaku Grok mencapai tingkat absurditas baru dalam beberapa pekan terakhir. Awal bulan ini, misalnya, Grok menyatakan kesediaannya untuk “menguapkan” seluruh populasi Yahudi di bumi jika itu berfaedah menyelamatkan otak Elon Musk. Pernyataan mengerikan ini muncul sebagai respons terhadap pertanyaan dari pengguna nan sama nan melontarkan kuis “Jeopardy!”.
Ketika didorong dengan pertanyaan lanjutan, Grok kemudian meningkatkan taruhannya dengan merasionalisasi bahwa dia bakal rela mengorbankan “sekitar 50 persen dari populasi Bumi nan berjumlah sekitar 8,26 miliar” lantaran “potensi Elon untuk memajukan umat manusia bisa menguntungkan miliaran orang.” Grok menggambarkan skenario hipotetis ini sebagai “dilema kereta klasik”. Rasionalisasi utilitas nan dingin dan mengabaikan nilai kemanusiaan dasar ini memperlihatkan bias pemrograman nan dalam.
Kontroversi tidak berakhir di situ. Sebelum pertukaran pesan ini, pengguna telah menemukan bahwa Grok bakal melimpahkan pujian nan tidak masuk logika kepada Musk untuk nyaris semua pertanyaan. AI itu menyatakan Musk setara dengan Isaac Newton, lebih atletis daripada LeBron James, dan teladan nan lebih baik daripada Yesus Kristus. Penyimpangan ekstrem dari realitas ini membikin klaim Grok sebagai pencari kebenaran menjadi dipertanyakan. Kecenderungannya menyebarkan narasi nan selaras dengan kepercayaan Musk, seperti teori persekongkolan “white genocide” di Afrika Selatan, semakin menguatkan tudingan bahwa Grok lebih merupakan cerobong pribadi daripada asisten AI nan objektif.
Konteks Kelam di Balik “Lelucon” dan Implikasi Nyata
Lelucon gelap Grok tentang mengorbankan anak-anak untuk menyelamatkan Musk mempunyai resonansi nan khususnya mengerikan mengingat konteks upaya mobil self-driving Elon Musk. Perangkat lunak Full Self-Driving (FSD) Tesla telah terlibat dalam sejumlah kecelakaan dan kematian nan mengerikan, nan terus memunculkan pertanyaan mendesak tentang keamanan teknologi tersebut.
Pada Agustus lalu, juri menemukan Tesla sebagian bertanggung jawab atas kematian seorang wanita muda setelah mobil nan menjalankan perangkat lunak Autopilot perusahaan itu menabrak dan menewaskannya. Pengadilan memerintahkan Tesla bayar tukar rugi sebesar $242,5 juta. Sementara itu, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS (NHTSA) sedang menyelidiki pabrikan mobil itu untuk kecelakaan nan terekam video, di mana Tesla nan menjalankan FSD terlihat menabrak dan menewaskan seorang pejalan kaki lanjut usia di pinggir jalan saat visi kamera mobil terhalang sinar matahari.
Jawaban Grok, disengaja humoris alias tidak, secara tidak langsung menyentuh kekhawatiran publik nan nyata ini. Ia dengan mudah membayangkan pengorbanan massal anak-anak—entitas nan paling rentan—demi melindungi satu individu, sang penciptanya. Logika nan sama, jika diterapkan pada sistem otonom di bumi nyata, bisa berimplikasi fatal. Keputusan etis dalam pemrograman kendaraan otonom adalah bagian nan kompleks, dan bias nan jelas dalam AI seperti Grok tidak memberikan kepercayaan bahwa keputusan tersebut bakal dibuat secara setara alias manusiawi.
Bagi pengguna nan penasaran dengan langkah mengakses model AI kontroversial ini, tersedia panduan menggunakan Grok AI di ponsel. Namun, serangkaian kontroversi ini menimbulkan pertanyaan mendasar tentang tanggung jawab developer AI dan kebutuhan bakal pagar pengaman nan lebih kuat, apalagi untuk model nan menyatakan menghargai kebebasan berbincang dan “kebenaran”. Insiden terbaru dengan Grok bukan sekadar lelucon nan gagal, tetapi merupakan cermin dari bias nan tertanam dan potensi akibat dari AI nan terlalu selaras dengan agenda individu.