Jakarta –
Kecanggihan kecerdasan buatan atau artificial intelligence (AI) telah membuat banyak orang kesulitan membedakan konten fiksi dan fakta. Hal ini telah merambah ke dunia ilmiah dan menimbulkan kekhawatiran bagi para ilmuwan.
Salah satu teknologi AI yang semakin canggih adalah deepfake. Teknologi AI ini bisa membuat gambar, video, dan audio yang palsu. Alhasil, deepfake ini telah membuat banyak orang tertipu, sehingga berdampak terhadap kehidupan mereka.
Menurut jurnal yang terbit di Research Square pada Agustus 2023, sebesar 33% hingga 55% warga Amerika Serikat tidak dapat membedakan konten yang sudah diubah dari faktanya. Beberapa di antaranya ada siswa, tenaga pengajar, dan masyarakat usia dewasa.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Akibatnya, kini deepfake tengah menjadi tantangan serius terkait integritas penelitian ilmiah. Terlebih, sains membutuhkan kepercayaan terhadap data, metode, dan temuan yang dihasilkan dari upaya ilmiah.
10.000 Makalah Ilmiah Mengandung Konten Palsu
Profesor Pendidikan Sains dan Direktur Penelitian di Oxford University, Sibel Erduran, meyakini bahwa konten palsu ini dapat merusak integritas penelitian ilmiah. Ia turut memperingatkan bahwa media deepfake dapat mengancam integritas penelitian ilmiah yang diandalkan untuk pengembangan teknologi baru dan lain-lain.
“Sains memerlukan kepercayaan, mulai dari data, metode, hingga temuan yang muncul dari usaha ilmiah. Kepercayaan ini terkadang disalahgunakan, bahkan tanpa pengaruh deepfake,” ujar Erduran dalam Science.org, dikutip Senin (9/9/2024).
Menurut peneliti, sudah banyak jurnal ilmiah yang memuat makalah ilmiah palsu. Bahkan, pada 2023, ditemukan lebih dari 10.000 makalah penelitian ilmiah yang ditarik karena mengandung konten palsu.
Fenomena tersebut menjadi bukti bahwa integritas ilmiah telah terancam. Dalam hal ini, deepfake menambah lapisan ketidakpercayaan tersebut dengan memperkenalkan kemungkinan bahwa data, khususnya data visual, dapat dimanipulasi dengan cara yang sulit dideteksi.
Misalnya, untuk memanipulasi atau membuat gambar yang menyebarkan temuan palsu. Bisa juga dengan video ilmuwan yang disegani, kemudian dengan teknologi AI bisa membuat mereka mengatakan hal-hal yang salah atau menyesatkan.
“Hal ini bisa sangat berbahaya jika menyangkut manipulasi media terhadap isu-isu seperti kesehatan masyarakat dan perubahan iklim,” ujar Erduran.
Bagaimana Cara Menghadapi Deepfake?
Untuk mengurangi dampak dan menghindari kekhawatiran akibat teknologi deepfake, Erduran mengatakan bahwa cara pertama yang dapat dimulai dari sendiri adalah menekankan pentingnya pembelajaran secara mendalam dengan meningkatkan keterampilan berpikir kritis, analitis, dan kreatif mereka.
“Belajar mengevaluasi informasi salah yang beredar untuk meningkatkan keterampilan berpikir kritis dan pemecahan masalah,” ungkapnya.
Untuk membantu memastikan pembelajaran dalam sains ditingkatkan, diperlukan alat deteksi misinformasi yang efektif, standar etika yang kuat, dan pendekatan pendidikan berbasis penelitian.
“Kita dapat mengembangkan alat pendeteksi deepfake untuk mengidentifikasi tanda-tanda halus yang dihasilkan oleh teknologi deepfake, seperti ketidakkonsistenan fitur wajah dalam video,” kata Erduran.
Selain itu, juga ditawarkannya solusi melalui regulasi, dengan mengembangkan pedoman dan praktik terbaik untuk penggunaan teknologi secara tepat guna dalam konteks penelitian ilmiah dan aspek kehidupan lainnya yang membutuhkan kepercayaan.
Sisi Lain Deepfake yang Dapat Dimanfaatkan
Meskipun banyak kerugian yang ditimbulkan, deepfake tak bisa dipungkiri dapat memberi keuntungan baru. Dikarenakan integritas ilmiah terancam, maka hal tersebut bisa menjadi peluang untuk belajar.
Kemajuan teknologi dan inovasi yang semakin maju dapat dikembangkan untuk mendeteksi data palsu. Erduran menyatakan bahwa deepfake bisa dimanfaatkan untuk menciptakan simulasi yang sangat realistis dalam konteks pendidikan.
Misalnya, deepfake dapat membantu pengembangan keterampilan medis siswa tanpa membahayakan keselamatan dalam situasi nyata dengan pasien sebenarnya.
Dalam konteks pendidikan, data yang direkayasa yang beredar dapat digunakan oleh para ilmuwan untuk mengembangkan pemahaman tentang cara membangun kepercayaan dalam komunitas ilmiah, serta menerapkan prinsip-prinsip etika pada komunikasi penelitian ilmiah.
Hal ini tentunya kembali pada komunitas ilmiah dan penggagas pendidikan untuk menangani deepfake dan memanfaatkan peluang yang ditawarkannya.
(faz/faz)