Peluncuran GPT-5 oleh OpenAI menimbulkan ekspektasi tinggi sebagai lompatan besar dalam kecerdasan buatan umum (AGI). CEO OpenAI, Sam Altman, bahkan menyamakan beban moral pengembangannya dengan para ilmuwan pencipta bom atom. Namun, realitanya ternyata berbeda.
Laporan MIT Technology Review mengungkapkan bahwa GPT-5 lebih merupakan penyempurnaan produk dengan antarmuka yang lebih mulus, bukan revolusi kecerdasan mesin. Beberapa pengguna awal bahkan melaporkan kesalahan signifikan dalam jawaban GPT-5, menyanggah klaim Altman bahwa AI ini setara dengan “ahli PhD di bidang apa pun.”
Salah satu fitur unggulan GPT-5 adalah kemampuannya untuk secara otomatis memilih model yang sesuai dengan pertanyaan pengguna. Namun, fitur ini dinilai belum matang dan justru mengurangi kendali pengguna. Di sisi lain, GPT-5 menunjukkan peningkatan dengan mengurangi kecenderungan memberikan pujian berlebihan kepada pengguna, masalah yang sering muncul di versi sebelumnya.
Pergeseran signifikan terlihat pada fokus OpenAI terhadap penggunaan GPT-5 dalam bidang kesehatan. Sebelumnya, ChatGPT cenderung menghindari pertanyaan medis dengan berbagai disclaimer. Kini, GPT-5 tidak hanya menerjemahkan istilah medis, tetapi juga memberikan saran dan bahkan mendiagnosis awal.
OpenAI meluncurkan HealthBench untuk mengukur kemampuan AI dalam bidang kesehatan. Mereka juga mempublikasikan studi yang menunjukkan bahwa dokter di Kenya membuat lebih sedikit kesalahan diagnosis dengan bantuan AI. Sam Altman sendiri menceritakan kisah karyawan OpenAI, Felipe Millon, dan istrinya, Carolina, yang menggunakan ChatGPT untuk memahami hasil biopsi kanker dan mempertimbangkan pilihan perawatan.
Walaupun kisah ini inspiratif, para ahli memperingatkan potensi bahaya dari ketergantungan masyarakat pada saran medis AI tanpa verifikasi dari dokter. Buktinya, Annals of Internal Medicine menerbitkan kasus seorang pria yang mengalami keracunan bromida setelah mengikuti saran ChatGPT, hingga nyaris meninggal dan dirawat berminggu-minggu.
Asisten profesor ilmu data dan filsafat di University of North Carolina Charlotte, Damien Williams, menyoroti masalah akuntabilitas. Ia menyatakan, “Jika dokter memberi saran medis yang keliru, pasien bisa menuntut melalui jalur malpraktik. Tapi jika ChatGPT yang memberi saran berbahaya, apa jalur hukumnya?” Pertanyaan ini menjadi inti permasalahan etika dan legalitas penggunaan GPT-5, khususnya di bidang kesehatan.
Meskipun menawarkan potensi besar dalam bidang medis, GPT-5 juga menimbulkan kekhawatiran akan tanggung jawab jika terjadi kesalahan. Perlu adanya regulasi dan etika yang jelas untuk memandu pengembangan dan penggunaan AI dalam bidang kesehatan yang sensitif ini. Tantangannya adalah menyeimbangkan inovasi teknologi dengan perlindungan keselamatan pasien.
Lebih lanjut, pengembangan GPT-5 dan teknologi AI serupa menuntut pertimbangan etis yang matang. Pertanyaan mengenai bias algoritma, privasi data, dan dampak sosialnya perlu dikaji secara mendalam sebelum penerapan yang lebih luas. Transparansi dan akuntabilitas menjadi kunci untuk membangun kepercayaan publik terhadap teknologi AI yang semakin canggih ini. Pentingnya kolaborasi antar peneliti, pembuat kebijakan, dan praktisi medis untuk memastikan penggunaan AI yang bertanggung jawab dan bermanfaat tidak dapat diabaikan.
Komentar