Organisasi advokasi Austria, Noyb (None of Your Business), kembali melayangkan gugatan terhadap OpenAI, pengembang ChatGPT. Gugatan ini terkait informasi keliru yang dihasilkan oleh chatbot AI tersebut, khususnya kasus di mana ChatGPT secara salah menuduh seorang pria Norwegia sebagai pembunuh.
Tuduhan tersebut muncul ketika pria tersebut bertanya tentang dirinya sendiri kepada ChatGPT. Alih-alih memberikan informasi yang akurat atau menyatakan ketidaktahuan, ChatGPT menyebutkan pria tersebut dihukum 21 tahun penjara atas pembunuhan dua anak dan percobaan pembunuhan terhadap anak ketiga. Fakta ini sepenuhnya salah dan tidak berdasar.
Parahnya, informasi palsu tersebut dipadukan dengan data pribadi yang akurat tentang pria tersebut, seperti jumlah anak, jenis kelamin, dan kota tempat tinggalnya. Hal ini membuat tuduhan tersebut semakin merusak dan tidak dapat dibenarkan. Noyb menilai hal ini sebagai contoh nyata “asbun” (asal bunyi) yang membahayakan reputasi individu.
Noyb berargumen bahwa OpenAI melanggar Peraturan Perlindungan Data Umum (GDPR) Uni Eropa. GDPR mensyaratkan data pribadi harus akurat. Jika tidak akurat, pengguna berhak untuk memperbaikinya. Peringatan kecil yang terdapat pada ChatGPT, menurut Noyb, tidak cukup untuk melindungi OpenAI dari tanggung jawab atas informasi palsu yang disebarluaskan.
Pelanggaran GDPR dan Tanggung Jawab OpenAI
Pengacara perlindungan data Noyb, Joakim Söderberg, menyatakan bahwa peringatan singkat yang menyatakan ChatGPT dapat membuat kesalahan tidak cukup untuk membebaskan OpenAI dari tanggung jawab. Menyebarkan informasi palsu dan hanya menambahkan disclaimer singkat adalah tindakan yang tidak dapat dibenarkan.
Gugatan ini menyoroti tantangan besar dalam pengembangan dan penerapan teknologi AI. Kemampuan ChatGPT untuk menghasilkan teks yang meyakinkan, meskipun tidak akurat, menimbulkan kekhawatiran serius tentang potensi penyalahgunaan dan dampaknya terhadap individu. Perlindungan data dan reputasi individu harus menjadi prioritas utama dalam pengembangan teknologi AI.
Dampak Informasi Palsu yang Disebarluaskan oleh AI
Kasus ini menekankan betapa pentingnya verifikasi informasi yang diperoleh dari sumber AI. Pengguna harus selalu kritis dan melakukan pengecekan silang dari berbagai sumber terpercaya sebelum mempercayai informasi yang didapat dari chatbot AI, seperti ChatGPT.
Selain itu, gugatan ini juga mengingatkan para pengembang AI akan tanggung jawab etis dan hukum mereka dalam memastikan akurasi informasi yang dihasilkan oleh sistem AI mereka. Mekanisme verifikasi dan pengamanan yang lebih kuat diperlukan untuk mencegah penyebaran informasi palsu yang dapat berdampak negatif pada individu dan masyarakat.
Langkah-langkah untuk Mencegah Kejadian Serupa
OpenAI perlu meningkatkan mekanisme verifikasi fakta dalam sistem ChatGPT dan mengembangkan algoritma yang lebih canggih untuk mendeteksi dan mencegah penyebaran informasi palsu. Transparansi juga sangat penting; OpenAI perlu lebih terbuka tentang batasan teknologi mereka dan bagaimana mereka berupaya untuk meminimalkan risiko kesalahan.
Lebih jauh lagi, regulasi yang lebih ketat dan komprehensif di bidang AI sangat diperlukan untuk mengatur pengembangan dan penerapan teknologi AI, termasuk mekanisme pertanggungjawaban yang jelas jika terjadi pelanggaran. Kolaborasi antara pengembang AI, regulator, dan masyarakat sipil sangat penting untuk menciptakan kerangka kerja yang bertanggung jawab dan etis untuk pengembangan dan penggunaan AI.
Kasus ini merupakan pembelajaran penting bagi semua pihak yang terlibat dalam pengembangan dan penggunaan AI. Perlindungan data, reputasi individu, dan tanggung jawab etis harus selalu menjadi prioritas utama dalam upaya untuk memanfaatkan potensi teknologi AI secara bertanggung jawab.