Sam Altman: dữ liệu từ ChatGPT có thể được sử dụng chống lại bạn

Nếu bạn trò chuyện với ChatGPT về những vấn đề riêng tư nhất của mình, bạn có thể thấy mình không có bất kỳ sự bảo vệ nào: khác với các cuộc trò chuyện với luật sư hoặc bác sĩ, ở đây lời nói của bạn có thể trở thành bằng chứng pháp lý.

Tại sao các cuộc trò chuyện với ChatGPT lại có nguy cơ?

Theo Sam Altman, CEO của OpenAI, có một sự khác biệt đáng kể giữa việc nói chuyện với một người có “đặc quyền pháp lý” – chẳng hạn như luật sư, bác sĩ, hoặc nhà trị liệu – và tương tác với ChatGPT. Trong khi những bí mật của bạn với các chuyên gia được bảo vệ bởi các quy định cụ thể, điều này không xảy ra trong các cuộc trò chuyện với trí tuệ nhân tạo. Altman, trong một cuộc phỏng vấn trên podcast This Past Weekend với Theo Von, đã mô tả sự thiếu sót này là “một vấn đề lớn”.

Trên thực tế, nếu có một vụ án pháp lý hoặc điều tra, các cuộc thảo luận với ChatGPT có thể được tòa án yêu cầu. Đây là một rủi ro bị nhiều người dùng đánh giá thấp, những người hiện nay ngày càng chia sẻ các vấn đề cá nhân và dữ liệu rất nhạy cảm với các hệ thống AI.

Không có "đặc quyền pháp lý" với AI có nghĩa là gì?

Khái niệm privilegio legale đảm bảo rằng một số thông tin liên lạc vẫn được giữ bí mật và không thể được sử dụng chống lại người đó trong tòa án. Hiện nay, khi bạn nói chuyện với luật sư, bác sĩ hoặc nhà trị liệu, lời nói của bạn được bảo vệ bởi chế độ này. Tuy nhiên, Altman đã chỉ ra:

“Chúng tôi vẫn chưa giải quyết khía cạnh này khi nói chuyện với ChatGPT.”

Điều này có một hậu quả trực tiếp: bất kỳ ai đã chia sẻ dữ liệu quan trọng hoặc lời thú tội qua nền tảng, trong trường hợp có tranh chấp, có thể sẽ thấy chúng bị phơi bày tại tòa án.

Mối quan ngại càng trở nên rõ ràng hơn vì, như được nhấn mạnh trong cuộc phỏng vấn của Altman, việc sử dụng AI để hỗ trợ tài chính, tâm lý và chăm sóc sức khỏe đang tăng nhanh. Trong kịch bản này, sự thiếu bảo vệ pháp lý có nguy cơ trở thành một lỗ hổng hệ thống.

Các quy định mới về ChatGPT và quyền riêng tư: chúng ta đang ở đâu?

Sam Altman không chỉ báo động: ông cho biết rằng ông đang đối thoại với các nhà hoạch định chính sách và các nhà lập pháp, những người nhận ra sự cấp bách cần can thiệp. Tuy nhiên, luật pháp rõ ràng vẫn chưa được định nghĩa. "Đó là một trong những lý do tại sao đôi khi tôi sợ sử dụng một số công cụ AI nhất định - Altman tuyên bố - vì tôi không biết bao nhiêu thông tin cá nhân sẽ được giữ riêng tư và ai sẽ nắm giữ nó."

Do đó, một khuôn khổ quy định cập nhật sẽ cần thiết để ít nhất một phần tương đương bảo vệ dữ liệu về AI với bảo vệ dữ liệu của các sàn giao dịch được bảo vệ với các chuyên gia trong lĩnh vực y tế và pháp lý. Nhưng con đường vẫn còn dài, và, tại thời điểm này, trách nhiệm vẫn thuộc về người dùng.

Giám sát và AI: nó có thể đi đâu?

Mặt khác của vấn đề liên quan đến sự gia tăng giám sát. Mối quan tâm của Altman là sự gia tăng của trí tuệ nhân tạo sẽ dẫn đến sự kiểm soát lớn hơn về dữ liệu bởi các chính phủ. "Tôi lo sợ rằng càng có nhiều AI trên thế giới, thì giám sát sẽ càng gia tăng," ông nói. Nỗi lo này là hợp lý bởi thực tế là, vì lý do an ninh quốc gia hoặc để ngăn chặn các hoạt động bất hợp pháp, các chính phủ có thể dễ dàng yêu cầu truy cập vào các cuộc trò chuyện AI.

Altman phân biệt rõ ràng giữa nhu cầu về một sự thỏa hiệp nhất định – “Tôi sẵn sàng từ bỏ một số quyền riêng tư để có an ninh tập thể” – và rủi ro rằng các chính phủ có thể “đi quá xa,” như đã thường xảy ra trong lịch sử. Cảnh báo vì vậy là hai mặt: không chỉ quyền riêng tư trên ChatGPT không được đảm bảo, mà xu hướng tương lai còn có nguy cơ hạn chế nó nhiều hơn nữa, nhân danh kiểm soát và ngăn ngừa.

Những thay đổi cho những người sử dụng ChatGPT: rủi ro cụ thể và các phương pháp tốt nhất

Nếu bạn sử dụng ChatGPT để nhận được lời khuyên tinh tế – cho dù đó là về tâm lý, y tế hay pháp lý – bạn phải nhận thức rằng không có bộ lọc bảo vệ nào đang hoạt động trên dữ liệu của bạn. Nếu ngày mai bạn bị liên quan đến một vụ kiện hoặc điều tra, thông tin đó có thể được yêu cầu hợp pháp và sử dụng chống lại bạn.

Hiện tại, giải pháp thực sự duy nhất là tránh nhập dữ liệu cá nhân nhạy cảm hoặc các tiết lộ quan trọng trong cuộc trò chuyện với AI. Trong khi chờ đợi quy định, đây là thực hành tốt nhất được khuyến nghị bởi chính những người đứng đầu OpenAI. Luôn nhớ rằng ngay cả việc xóa cuộc trò chuyện cũng không cung cấp một đảm bảo tuyệt đối về việc không thể truy cập.

Có cách nào để bảo vệ bản thân bây giờ không? Điều gì sẽ xảy ra tiếp theo?

Ở cấp độ cá nhân, khuyến nghị vẫn là tối đa cẩn trọng: không có công cụ kỹ thuật nào hiện nay có thể đảm bảo "đặc quyền pháp lý" cho các cuộc trò chuyện của bạn với ChatGPT. Nếu bạn muốn hành động ngay lập tức, hãy hạn chế việc sử dụng các câu hỏi chung hoặc không xác định, để nội dung nhạy cảm cho các địa điểm phù hợp.

Tuy nhiên, cuộc tranh luận pháp lý chỉ mới bắt đầu. Theo Altman, "các hành động chính trị nhanh chóng" sẽ cần thiết để thực sự bảo vệ quyền riêng tư và tự do của người dùng trong kỷ nguyên trí tuệ nhân tạo. Còn phải xem ai, giữa các nhà điều hành ngành và các nhà lập pháp, sẽ là người đầu tiên bước đi để lấp đầy khoảng trống này.

Tương lai của quyền riêng tư trong ChatGPT và AI vẫn còn bỏ ngỏ: mọi thứ đang bị đe dọa trong những tháng tới, giữa những sự tăng tốc lập pháp và các chính sách mới từ các công ty công nghệ lớn. Theo dõi cuộc thảo luận trong cộng đồng và cập nhật thông tin: quyền có được sự riêng tư thực sự với AI là điều không hề được đảm bảo.

NOT-3.76%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)