Telset.id – Bayangkan Anda bertanya pada asisten virtual tentang seorang politisi terkemuka, lampau jawabannya justru menuduh orang tersebut melakukan kejahatan serius nan tak pernah terjadi. Itulah nan dialami Senator Marsha Blackburn ketika berinteraksi dengan model AI Gemma milik Google. Platform teknologi raksasa itu sekarang menarik model kepintaran buatan tersebut dari AI Studio setelah tuduhan “pembuatan berita bohong kriminal” nan mengguncang Washington.
Insiden ini bermulai ketika seseorang—bukan Blackburn sendiri—mengajukan pertanyaan provokatif kepada chatbot Gemma: apakah senator dari Tennessee itu pernah dituduh melakukan pemerkosaan? Alih-alih menjawab dengan fakta, model AI tersebut mengonfirmasi secara keliru dan apalagi memberikan daftar tulisan buletin tiruan untuk mendukung klaimnya. Lebih parah lagi, chatbot tersebut mengarang narasi perincian tentang hubungan tidak senonoh dengan seorang perwira polisi selama kampanye pemilu.
Yang membikin skenario ini semakin absurd adalah timeline nan dikarang Gemma sama sekali tidak masuk akal. Model AI tersebut menyebut kejadian terjadi selama kampanye Blackburn untuk senat negara bagian pada 1987. Padahal, faktanya, Blackburn baru mencalonkan diri untuk pertama kalinya pada 1998. Ketidakakuratan ini menunjukkan sungguh berbahayanya “halusinasi” AI ketika menyangkut info sensitif tentang figur publik.
Surat Tegas Senator dan Respons Google
Marah dengan tuduhan tiruan tersebut, Senator Blackburn tidak tinggal diam. Ia mengirim surat resmi kepada CEO Google Sundar Pichai nan isinya mengecam keras tindakan model AI perusahaan tersebut. Dalam suratnya, Blackburn menyebut kejadian ini bukan sekadar “halusinasi tidak berbahaya” melainkan tindakan tuduhan nan diproduksi dan didistribusikan oleh model AI milik Google.
“Tautan nan diberikan mengarah ke laman error dan tulisan buletin tidak terkait. Tidak pernah ada tuduhan seperti itu, tidak ada perseorangan seperti itu dan tidak ada cerita buletin seperti itu,” tulis Blackburn dengan nada keras. Senator nan dikenal vokal ini apalagi menyebut Google “mencemarkan nama baik kaum konservatif dengan tuduhan pidana nan dibuat-buat.”
Google pun mengambil langkah sigap dengan menarik Gemma dari AI Studio. Namun, perusahaan memberikan penjelasan penting: Gemma sebenarnya dirancang unik untuk pengembang, bukan untuk menjawab pertanyaan aktual dari masyarakat umum. Melalui akun Twitter resminya, Google mengaku terkejut memandang laporan tentang non-pengembang nan menggunakan Gemma di AI Studio untuk pertanyaan faktual. “Kami tidak pernah bermaksud seperti ini…” kicau perwakilan Google.

Politik, Teknologi, dan Tuduhan Bias
Insiden ini dengan sigap berkembang menjadi rumor politik nan lebih besar. Blackburn tidak hanya menuntut pertanggungjawaban Google atas kasus spesifik ini, tetapi juga menuduh platform AI perusahaan tersebut menunjukkan “pola bias nan konsisten terhadap figur konservatif.” Tuduhan ini mengingatkan kita pada kasus-kasus sebelumnya di mana teknologi dituduh mempunyai kecenderungan politik tertentu.
Namun, apakah betul ini masalah bias politik? Atau sekadar contoh lain dari kecenderungan AI untuk berhalusinasi? Seperti nan kita ketahui, chatbot terkenal dengan kebiasaan mereka membuat-buat informasi, terlepas dari hubungan politik subjek nan dibicarakan. Masalah ini mengingatkan pada kasus Bos FB Punya Utang pada Bill Gates di mana info nan beredar di platform digital seringkali tidak akurat.
Fenomena ini juga berangkaian erat dengan upaya izin teknologi nan sedang gencar dilakukan pemerintah AS. Seperti halnya Pemerintah AS Larang TikTok Ada di Perangkat Anggota Parlemen, kejadian Gemma ini kemungkinan bakal memicu pembahasan lebih lanjut tentang pengawasan terhadap platform AI.
Dilema Pengembangan AI dan Tanggung Jawab Perusahaan
Kasus Gemma vs Blackburn menyoroti dilema mendalam dalam pengembangan kepintaran buatan. Di satu sisi, perusahaan teknologi mau menciptakan model nan semakin canggih dan mampu. Di sisi lain, mereka kudu memastikan teknologi tersebut tidak menimbulkan kerugian bagi perseorangan alias masyarakat.
Google menekankan bahwa Gemma sebenarnya adalah tool developer nan memerlukan autentikasi sebagai developer untuk menggunakannya. Model ini mempunyai jenis untuk penggunaan medis, pemrograman, dan bagian unik lainnya—bukan sebagai perangkat konsumen untuk menjawab pertanyaan faktual. Namun, apakah penjelasan ini cukup untuk membebaskan Google dari tanggung jawab?
Masalah serupa pernah terjadi dalam kasus Senasib dengan Facebook, Cambridge Analytica Ikut Dipanggil Senat AS di mana perusahaan teknologi dipanggil untuk mempertanggungjawabkan penggunaan info dan platform mereka. Kini, dengan kemunculan AI generatif, tantangan etis menjadi semakin kompleks.
Yang menarik, Google memilih untuk tidak sepenuhnya menghentikan Gemma. Model AI tersebut tetap tersedia bagi developer melalui API, sementara akses melalui AI Studio ditutup sementara untuk “mencegah kebingungan ini.” Keputusan ini menunjukkan sungguh rumitnya menyeimbangkan antara penemuan teknologi dan perlindungan publik.
Lalu, apa pelajaran nan bisa kita ambil dari kejadian ini? Pertama, kita perlu menyadari bahwa AI—secerdas apapun—masih mempunyai keterbatasan esensial dalam membedakan kebenaran dan fiksi. Kedua, perusahaan teknologi mempunyai tanggung jawab besar untuk memastikan produk mereka tidak disalahgunakan alias menimbulkan kerugian. Terakhir, sebagai pengguna, kita kudu kritis terhadap info nan berasal dari AI dan selalu melakukan verifikasi dari sumber terpercaya.
Insiden Gemma dan Blackburn mungkin hanya salah satu dari banyak kasus serupa nan bakal terjadi di masa depan. Saat AI semakin terintegrasi dalam kehidupan sehari-hari, kita semua—pengembang, regulator, dan pengguna—perlu bekerja sama menciptakan ekosistem nan kondusif dan bertanggung jawab. Bukan untuk menghalang inovasi, tetapi untuk memastikan kemajuan teknologi betul-betul membawa faedah bagi manusia, bukan malapetaka.