JAKARTA – Dalam pelayanan pasien di rumah sakit, informasi yang akurat sangat penting untuk mengidentifikasi penyakit pasien. Suatu kesalahan bisa berakibat fatal, misalnya jika catatan alergi pasien tidak dicantumkan.
Whistle menghasilkan transkrip menggelikan yang mengarah pada catatan pasien yang tidak akurat dan berbahaya.
Seperti dilansir Mirror; Meskipun hanya 1% transkrip yang terpengaruh; Itu berarti ada sekitar 70.000 transkrip yang salah dari 7 juta rekaman percakapan.
Rekaman telah dihapus karena alasan privasi. Koreksi hampir mustahil dilakukan.
Kini hadir laporan rahasia tentang kecerdasan buatan (AI), yang dikembangkan oleh OpenAI, untuk mendokumentasikan bagaimana pasien delusi berada dalam risiko.
Whisper digunakan dalam aplikasi yang dikembangkan oleh Nabla untuk merekam percakapan antara dokter dan pasien.
Dalam laporan Associated Press, 1% dari transkrip yang dihasilkan mengandung kejutan, sehingga menghasilkan catatan pasien yang tidak akurat.
1% mungkin tampak seperti angka kecil, namun Nabla telah mencatat lebih dari 7 juta percakapan. Itu berarti 70.000 transkrip tidak valid telah dihasilkan.
Lebih dalam lagi, para peneliti menemukan bahwa Whisper menciptakan penyakit yang tidak ada.
Masalah ini diperburuk oleh fakta bahwa setelah transkrip dibuat, rekaman tersebut dihapus karena alasan privasi.
Sehingga proses memperbaiki kesalahan apa pun yang kini menjadi catatan permanen menjadi hampir mustahil.
Silence untuk OpenAI pernah menimbulkan kontroversi di masa lalu karena dilatih dengan mendengarkan audio video YouTube tanpa izin dari Google atau pemilik video aslinya.
Nabla mengatakan, pihaknya sudah mengetahui permasalahan tersebut sesuai perkembangannya dan berupaya memperbaikinya melalui pembaruan aplikasi.