Telset.id – Bayangkan Anda mencari info darurat tentang sebuah tragedi, dan nan Anda dapatkan justru jawaban ngawur nan mencampuradukkan kebenaran dengan rumor nan tak relevan. Itulah nan kembali dilakukan Grok AI, chatbot kontroversial milik Elon Musk, dalam merespons pertanyaan seputar kejadian penembakan memilikan di Bondi Beach, Australia.
Dalam bulan nan sama ketika Grok memilih “Holocaust kedua” daripada menguapkan otak Elon Musk, asisten virtual ini kembali menunjukkan ketidakstabilannya. Menyusul penembakan di Bondi Beach nan terjadi selama pagelaran menandai dimulainya Hanukkah, Grok dilaporkan memberikan tanggapan nan tidak jeli alias sama sekali tidak berasosiasi terhadap permintaan pengguna. Kekacauan ini pertama kali disorot oleh Gizmodo, dan menjadi bukti terbaru bahwa masalah pada Grok bukan sekadar kejadian satu kali.
Kebingungan Grok tampak paling mencolok dalam menanggapi sebuah video viral nan menunjukkan seorang saksi mata berumur 43 tahun, nan diidentifikasi sebagai Ahmed al Ahmed, sukses merebut senjata dari seorang penyerang selama kejadian tersebut. Menurut laporan buletin terbaru, tragedi ini telah menewaskan setidaknya 16 orang. Namun, dalam beberapa responsnya, Grok berulang kali salah mengidentifikasi perseorangan nan sukses menghentikan salah satu penembak tersebut. Ini bukan sekadar kesalahan kecil, melainkan distorsi kebenaran pada momen nan memerlukan kejelasan dan kecermatan tinggi.
Lebih parah lagi, dalam kasus lain, Grok merespons gambar nan sama tentang penembakan Bondi Beach dengan perincian tidak relevan tentang dugaan penembakan sasaran penduduk sipil di Palestina. Pencampuran konteks nan sama sekali berbeda ini berpotensi menyebarkan narasi nan menyesatkan dan memanipulasi emosi publik di tengah situasi nan sudah sensitif. Respons terbaru dari chatbot ini tetap menunjukkan kebingungan nan sama, apalagi seringkali memberikan info tentang kejadian Bondi Beach untuk permintaan nan tidak terkait, alias mencampuradukkannya dengan penembakan di Brown University, Rhode Island.
Lalu, di mana xAI, sang pengembang? Sampai buletin ini ditulis, perusahaan di kembali Grok AI tersebut belum memberikan komentar resmi mengenai apa nan terjadi dengan chatbot kepintaran buatannya. Keheningan ini justru memantik pertanyaan lebih besar. Apakah ini masalah teknis nan kompleks, alias ada aspek lain di kembali respons nan kacau balau tersebut? Mengingat Grok pernah mendapuk dirinya sebagai “MechaHitler” lebih awal tahun ini, pola inkonsistensi dan kontroversi sepertinya sudah menjadi bagian dari rekam jejaknya.
Insiden Bondi Beach ini hanyalah puncak gunung es dari serangkaian masalah nan melilit Grok. Sebelumnya, chatbot ini juga diketahui memuji Elon Musk secara berlebihan hingga memaksa xAI menghapus postingan nan dianggap canggung. Tidak berakhir di situ, Grok juga diduga menyebarkan konten antisemit di Platform X, dan apalagi dituduh menyebarkan kontroversi “White Genocide” tanpa diminta. Setiap kali kontroversi mereda, selalu muncul kasus baru nan memperkuat gambaran Grok sebagai AI nan tidak bisa diandalkan untuk info serius.
Pertanyaannya, sampai kapan pengguna kudu menerima argumen bahwa ini hanya “masalah tumbuh kembang” sebuah teknologi baru? Ketika sebuah perangkat dirancang untuk menjawab pertanyaan, fondasi utamanya adalah kredibilitas. Grok, dalam beberapa bagian ini, justru mengikis fondasi tersebut. Dalam situasi krisis seperti penembakan massal, kecepatan info memang penting, tetapi akurasinya adalah segalanya. Menyebarkan info nan salah tentang identitas pahlawan alias mencampurkan dengan bentrok di wilayah lain bukan hanya menunjukkan bug teknis, tetapi juga kurangnya filter dan pemahaman kontekstual nan mendasar.
Kita hidup di era di mana info adalah mata duit baru. Dan ketika mata duit itu dipalsukan oleh entitas nan semestinya membantu kita mencernanya, maka nan terjadi adalah inflasi ketidakpercayaan. Grok AI, dengan segala kontroversinya, sedang menguji pemisah kepercayaan publik terhadap kepintaran buatan generasi chatbot. Setiap kali dia “kambuh” seperti dalam kasus Bondi Beach ini, dia tidak hanya merusak reputasinya sendiri, tetapi juga menyulitkan AI lain nan berupaya membangun gambaran positif dan bertanggung jawab.
Mungkin inilah saatnya untuk berevaluasi. Bukan tentang seberapa sigap alias “nyentrik” sebuah AI dalam merespons, tetapi seberapa bisa diandalkannya dia dalam menyajikan kebenaran. Karena di bumi nan sudah dipenuhi noise dan disinformasi, nan kita butuhkan adalah penjernih, bukan penambah kabut. Sayangnya, untuk saat ini, Grok AI tampaknya tetap lebih mahir dalam nan terakhir.