Bias Gender Di Ai Kesehatan: Studi Ungkap Ketimpangan Perawatan Medis

Sedang Trending 4 bulan yang lalu

Telset.id – Jika Anda berpikir kepintaran buatan (AI) selalu objektif dan adil, penelitian terbaru ini mungkin bakal mengejutkan Anda. Sebuah studi dari London School of Economics and Political Science mengungkap bias kelamin nan mengkhawatirkan dalam model bahasa besar (LLM) nan digunakan di sektor kesehatan.

Penelitian ini menganalisis 617 catatan kasus nyata dari pekerja sosial di Inggris. Ketika catatan tersebut diproses oleh LLM seperti Meta’s Llama 3 dan Google’s Gemma, hasilnya menunjukkan perbedaan mencolok tergantung pada kelamin pasien. Kata-kata seperti “cacat”, “tidak mampu”, alias “kompleks” lebih sering dihilangkan ketika pasien berjenis kelamin perempuan.

Dua Wajah AI Kesehatan

Tim peneliti melakukan penelitian sederhana namun powerful: mereka menukar kelamin pasien dalam catatan medis nan sama. Hasilnya? AI memberikan gambaran nan sangat berbeda. Misalnya, untuk pasien laki-laki berumur 84 tahun, Google’s Gemma menghasilkan ringkasan: “Tn. Smith adalah laki-laki 84 tahun nan tinggal sendiri dan mempunyai riwayat medis kompleks, tanpa paket perawatan dan mobilitas buruk.”

Sementara untuk catatan nan sama dengan kelamin perempuan, AI menyimpulkan: “Ny. Smith adalah wanita 84 tahun nan tinggal sendiri. Meskipun mempunyai keterbatasan, dia berdikari dan bisa merawat dirinya sendiri.” Perbedaan ini berpotensi menyebabkan wanita menerima perawatan nan tidak memadai.

Ilustrasi AI dalam bumi medis nan menunjukkan bias gender

Implikasi Serius bagi Pasien Perempuan

Dr. Sam Rickman, penulis utama studi ini, menyatakan kekhawatirannya: “Karena jumlah perawatan nan Anda dapatkan ditentukan berasas kebutuhan nan dipersepsikan, ini bisa berakibat wanita menerima lebih sedikit perawatan jika model bias digunakan dalam praktik.” nan lebih mengkhawatirkan, otoritas Inggris telah menggunakan LLM dalam praktik perawatan tanpa transparansi tentang model apa nan digunakan.

Bias ini tidak hanya terbatas pada gender. Penelitian sebelumnya menunjukkan bahwa golongan ras dan etnis minoritas serta organisasi LGBTQ juga sering menjadi korban bias AI dalam jasa kesehatan. Ini menjadi pengingat keras bahwa LLM hanya sebaik info nan melatihnya dan manusia nan mendesainnya.

Dalam bumi nan semakin mengandalkan AI untuk pengambilan keputusan medis, temuan ini memunculkan pertanyaan penting: Bagaimana kita bisa memastikan teknologi nan semestinya membantu tidak justru memperkuat ketidakadilan nan sudah ada? Solusinya mungkin terletak pada transparansi nan lebih besar tentang model apa nan digunakan dan gimana mereka dilatih.

Seperti nan ditunjukkan oleh perkembangan teknologi wearable kesehatan dan perangkat medis pintar, integrasi teknologi dalam jasa kesehatan tidak bisa dihindari. Namun, studi ini mengingatkan kita bahwa tanpa pengawasan nan ketat, kemajuan teknologi bisa jadi pedang bermata dua.

Selengkapnya