Masalah 'halusinasi' ChatGPT menghadapi keluhan privasi lain di UE
OpenAI menghadapi keluhan privasi lain di Uni Eropa. Yang ini, yang telah diajukan oleh lembaga nirlaba hak privasi noyb atas nama pengadu individu, menargetkan ketidakmampuan chatbot AI-nya, ChatGPT, untuk memperbaiki informasi yang dihasilkannya tentang individu.
Kecenderungan alat GenAI untuk menghasilkan informasi yang salah telah didokumentasikan dengan baik. Tetapi ini juga menempatkan teknologi tersebut dalam jalur tabrakan dengan Peraturan Perlindungan Data Umum (GDPR) blok — yang mengatur bagaimana data pribadi pengguna di wilayah tersebut dapat diproses.
Denda atas pelanggaran kepatuhan GDPR dapat mencapai hingga 4% omset tahunan global. Yang lebih penting bagi raksasa sumber daya seperti OpenAI: Regulator perlindungan data dapat mengarahkan perubahan cara informasi diolah, sehingga penegakan GDPR bisa membentuk kembali cara alat AI generatif dapat beroperasi di UE.
OpenAI sudah dipaksa untuk membuat beberapa perubahan setelah intervensi awal oleh otoritas perlindungan data Italia, yang sejenak memaksa penutupan ChatGPT secara lokal kembali pada tahun 2023.
Sekarang noyb sedang mengajukan keluhan GDPR terbaru terhadap ChatGPT dengan otoritas perlindungan data Austria atas nama pengadu yang tidak disebutkan namanya (diuraikan sebagai "tokoh publik") yang menemukan chatbot AI menghasilkan tanggal lahir yang salah untuk mereka.
Dibawah GDPR, orang-orang di UE memiliki sejumlah hak terkait informasi tentang mereka, termasuk hak untuk memperbaiki data yang salah. noyb mengklaim OpenAI gagal mematuhi kewajiban ini dalam hal output chatbot-nya. Perusahaan tersebut menolak permintaan pengadu untuk memperbaiki tanggal lahir yang salah, dengan menjawab bahwa secara teknis tidak mungkin untuk memperbaiki nya.
Sebaliknya, perusahaan menawarkan untuk menyaring atau memblokir data pada sejumlah prompt tertentu, seperti nama pengadu.
Dasar hukum OpenAI menyatakan pengguna yang memperhatikan chatbot AI menghasilkan "informasi yang tidak akurat tentang Anda" dapat mengajukan "permintaan perbaikan" melalui privacy.openai.com atau dengan mengirim email ke dsar@openai.com. Namun, perusahaan menyarankan bahwa "dengan kompleksitas teknis cara model kami bekerja, mungkin kami tidak dapat memperbaiki ketidakakuratan di setiap kasus."
Dalam kasus tersebut, OpenAI menyarankan agar pengguna meminta perusahaan menghapus informasi pribadi mereka dari output ChatGPT sepenuhnya — dengan mengisi formulir web.
Permasalahan bagi raksasa AI tersebut adalah bahwa hak GDPR bukanlah makanan a la carte. Orang-orang di Eropa memiliki hak untuk meminta perbaikan. Mereka juga memiliki hak untuk meminta penghapusan data mereka. Tetapi, seperti yang ditunjukkan oleh noyb, bukanlah tugas OpenAI untuk memilih hak mana yang tersedia.
Elemen lain dari keluhan tersebut memfokuskan pada kekhawatiran transparansi GDPR, dengan noyb mengklaim bahwa OpenAI tidak dapat mengatakan dari mana data yang dihasilkannya tentang individu berasal, juga data apa yang disimpan chatbot tentang orang-orang.
Hal ini penting karena, sekali lagi, regulasi memberi individu hak untuk meminta informasi tersebut dengan membuat permintaan akses subyek (SAR) tersebut. Menurut noyb, OpenAI tidak merespons secara memadai terhadap SAR pengadu, gagal untuk mengungkapkan informasi apapun tentang data yang diproses, sumbernya, atau penerima informasi tersebut.
Mengomentari keluhan tersebut dalam sebuah pernyataan, Maartje de Graaf, ahli hukum perlindungan data di noyb, mengatakan: \"Membuat informasi palsu itu cukup bermasalah di dalamnya sendiri. Tetapi ketika itu terkait dengan informasi palsu tentang individu, dapat ada konsekuensi serius. Jelas bahwa perusahaan saat ini tidak mampu membuat chatbot seperti ChatGPT mematuhi hukum UE, saat memproses data tentang individu. Jika sistem tidak dapat menghasilkan hasil yang akurat dan transparan, itu tidak dapat digunakan untuk menghasilkan data tentang individu. Teknologi harus mengikuti persyaratan hukum, bukan sebaliknya.\"
Perusahaan mengatakan bahwa mereka meminta otoritas perlindungan data Austria untuk menyelidiki keluhan tentang pemrosesan data OpenAI, serta mendesaknya untuk memberlakukan denda untuk memastikan kepatuhan di masa depan. Namun, mereka menambahkan bahwa "kemungkinan" kasus ini akan ditangani melalui kerjasama UE.
OpenAI menghadapi keluhan yang sangat serupa di Polandia. September lalu, otoritas perlindungan data lokal membuka penyelidikan terhadap ChatGPT menyusul keluhan oleh seorang peneliti privasi dan keamanan yang juga menemukan bahwa dia tidak dapat memperbaiki informasi yang salah tentang dirinya oleh OpenAI. Keluhan tersebut juga menuduh raksasa AI ini gagal mematuhi persyaratan transparansi regulasi tersebut.
Sementara itu, otoritas perlindungan data Italia masih memiliki penyelidikan terbuka terhadap ChatGPT. Pada Januari, mereka mengeluarkan keputusan awal, mengatakan saat itu bahwa mereka percaya OpenAI telah melanggar GDPR dalam beberapa cara, termasuk terkait dengan kecenderungan chatbot untuk menghasilkan informasi yang salah tentang orang. Temuan tersebut juga berhubungan dengan isu-isu inti lainnya, seperti keabsahan pemrosesan.
Otoritas Italia memberi OpenAI waktu sebulan untuk menanggapi temuannya. Keputusan akhir masih tertunda.
Sekarang, dengan keluhan GDPR lain yang dilayangkan ke chatbot-nya, risiko OpenAI menghadapi serangkaian penerapan GDPR di negara-negara anggota yang berbeda meningkat.
Tahun lalu perusahaan membuka kantor regional di Dublin — dalam langkah yang tampaknya dimaksudkan untuk mengurangi risiko regulasi dengan cara mendorong keluhan privasi dialirkan oleh Komisi Perlindungan Data Irlandia, berkat mekanisme dalam GDPR yang dimaksudkan untuk menyederhanakan pengawasan keluhan lintas batas dengan mengalirkannya ke satu otoritas negara anggota di mana perusahaan "terutama didirikan."
ChatGPT melanggar hukum privasi Eropa, kata DPA Italia kepada OpenAI
Polandia membuka penyelidikan privasi ChatGPT menyusul keluhan GDPR