Sam Altman: data dari ChatGPT dapat digunakan melawanmu

Berbicara dengan ChatGPT tentang masalah paling pribadi Anda, Anda mungkin mendapati diri Anda tanpa perlindungan: berbeda dengan percakapan dengan pengacara atau dokter, di sini kata-kata Anda dapat menjadi bukti hukum.

Mengapa percakapan dengan ChatGPT berisiko?

Menurut Sam Altman, CEO OpenAI, ada perbedaan substansial antara berbicara dengan seseorang yang menikmati apa yang disebut "hak istimewa hukum" – seperti pengacara, dokter, atau terapis – dan berinteraksi dengan ChatGPT. Sementara kepercayaan Anda dengan profesional dilindungi oleh regulasi tertentu, hal ini tidak terjadi dalam obrolan dengan kecerdasan buatan. Altman, dalam sebuah wawancara di podcast This Past Weekend dengan Theo Von, menggambarkan kekurangan ini sebagai "masalah besar".

Dalam praktiknya, jika ada kasus hukum atau penyelidikan, diskusi yang dilakukan dengan ChatGPT dapat diminta oleh pengadilan. Sebuah risiko yang diremehkan oleh banyak pengguna, yang saat ini semakin sering membagikan masalah pribadi dan data yang sangat sensitif dengan sistem AI.

Apa artinya tidak memiliki "privilege hukum" dengan AI?

Konsep privilegio legale memastikan bahwa komunikasi tertentu tetap bersifat rahasia dan tidak dapat digunakan melawan orang tersebut di pengadilan. Saat ini, ketika Anda berbicara dengan pengacara, dokter, atau terapis, kata-kata Anda dilindungi oleh rezim ini. Namun, Altman menjelaskan:

"Kami belum menyelesaikan aspek ini saat berbicara dengan ChatGPT."

Ini memiliki konsekuensi langsung: siapa pun yang telah membagikan data penting atau pengakuan melalui platform, dalam hal sengketa, dapat melihatnya terungkap di pengadilan.

Kekhawatiran ini semakin terasa jelas karena, seperti yang disoroti dalam wawancara Altman, penggunaan AI untuk bantuan keuangan, psikologis, dan kesehatan semakin meningkat dengan cepat. Dalam skenario ini, kurangnya perlindungan hukum berisiko menjadi kerentanan sistemik.

Regulasi baru untuk ChatGPT dan privasi: di mana posisi kita?

Sam Altman tidak hanya membunyikan alarm: dia menyatakan bahwa dia sedang berdialog dengan pembuat kebijakan dan legislator, yang menyadari urgensi untuk campur tangan. Namun, undang-undang yang jelas belum ditetapkan. “Itu adalah salah satu alasan mengapa terkadang saya takut menggunakan alat AI tertentu – jelas Altman – karena saya tidak tahu berapa banyak informasi pribadi yang akan tetap bersifat rahasia dan siapa yang akan menguasainya.”

Oleh karena itu, kerangka regulasi yang diperbarui akan diperlukan yang setidaknya sebagian menyamakan perlindungan data pada AI dengan perlindungan yang diberikan kepada pertukaran dengan profesional kesehatan dan hukum. Namun, jalannya masih panjang, dan, saat ini, tanggung jawab tetap ada pada pengguna.

Pengawasan dan AI: kemana arahnya?

Sisi lain dari koin ini berkaitan dengan peningkatan pengawasan. Kekhawatiran Altman adalah bahwa percepatan kecerdasan buatan akan mengarah pada kontrol data yang lebih besar oleh pemerintah. "Saya khawatir semakin banyak AI di dunia, semakin banyak pengawasan yang akan meningkat," katanya. Ketakutan ini dibenarkan oleh fakta bahwa, untuk alasan keamanan nasional atau untuk mencegah aktivitas ilegal, pemerintah dapat dengan mudah meminta akses ke percakapan AI.

Altman membuat perbedaan yang jelas antara kebutuhan akan kompromi tertentu – “Saya bersedia mengorbankan beberapa privasi demi keamanan kolektif” – dan risiko bahwa pemerintah pergi “terlalu jauh,” seperti yang sering terjadi dalam sejarah. Peringatan ini karena itu memiliki dua sisi: tidak hanya privasi di ChatGPT tidak dijamin, tetapi tren di masa depan berisiko membatasi privasi bahkan lebih, atas nama kontrol dan pencegahan.

Apa yang berubah bagi mereka yang menggunakan ChatGPT: risiko konkret dan praktik terbaik

Jika Anda menggunakan ChatGPT untuk menerima saran yang sensitif – baik itu bersifat psikologis, medis, atau hukum – Anda harus menyadari bahwa tidak ada filter perlindungan yang aktif pada data Anda. Jika besok Anda terlibat dalam gugatan atau penyelidikan, informasi tersebut bisa diminta secara hukum dan digunakan melawan Anda juga.

Saat ini, satu-satunya solusi nyata adalah menghindari memasukkan data pribadi yang sensitif atau pengungkapan penting dalam obrolan dengan AI. Sambil menunggu regulasi, ini adalah praktik terbaik yang direkomendasikan oleh para pemimpin OpenAI. Selalu ingat bahwa bahkan menghapus obrolan tidak menawarkan jaminan absolut mengenai ketidakaksesibilitas.

Adakah cara untuk melindungi diri sekarang? Apa yang terjadi selanjutnya?

Pada tingkat individu, rekomendasi tetap berhati-hati maksimum: tidak ada alat teknis yang dapat menjamin "privilege hukum" untuk percakapan Anda dengan ChatGPT saat ini. Jika Anda ingin bertindak segera, batasi penggunaan pada pertanyaan umum atau yang tidak dapat diidentifikasi, dan tunda konten sensitif ke tempat yang sesuai.

Namun, perdebatan hukum baru saja dimulai. Menurut Altman, "tindakan politik yang cepat" akan diperlukan untuk benar-benar melindungi privasi dan kebebasan pengguna di era kecerdasan buatan. Masih harus dilihat siapa, di antara pelaku industri dan legislator, yang akan mengambil langkah pertama untuk mengisi kekosongan ini.

Masa depan privasi di ChatGPT dan AI masih terbuka: segalanya dipertaruhkan dalam beberapa bulan mendatang, antara percepatan legislatif dan kebijakan baru dari perusahaan teknologi besar. Ikuti diskusi di komunitas dan tetap terupdate: hak atas privasi yang nyata dengan AI sama sekali tidak dijamin.

NOT-3.76%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)