Bảo mật AI vấn đề ngày càng nổi bật, mã hóa đồng cấu hoàn toàn trở thành giải pháp
Gần đây, một mô hình AI có tên là Manus đã đạt được thành tích đột phá trong bài kiểm tra chuẩn GAIA, vượt qua các mô hình ngôn ngữ lớn cùng cấp. Manus thể hiện khả năng hoàn thành độc lập các nhiệm vụ phức tạp, chẳng hạn như đàm phán thương mại xuyên quốc gia, liên quan đến phân tích hợp đồng, lập kế hoạch chiến lược và xây dựng phương án. So với các hệ thống truyền thống, Manus có những ưu thế rõ rệt trong việc phân tách mục tiêu động, suy luận đa dạng và học tập tăng cường trí nhớ. Nó có thể chia nhỏ các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu khác nhau, và liên tục nâng cao hiệu quả quyết định và giảm tỷ lệ sai sót thông qua học tập tăng cường.
Sự xuất hiện của Manus một lần nữa đã kích thích cuộc thảo luận trong ngành về con đường phát triển AI: Tương lai sẽ hướng tới trí tuệ nhân tạo tổng quát (AGI) hay hệ thống đa tác nhân (MAS)? Điều này thực sự phản ánh mâu thuẫn cốt lõi trong việc cân bằng giữa hiệu quả và an toàn trong phát triển AI. Trí tuệ đơn thể càng gần AGI, quá trình ra quyết định của nó càng trở nên không minh bạch, rủi ro cũng theo đó mà tăng lên; trong khi hợp tác đa tác nhân mặc dù có thể phân tán rủi ro, nhưng có thể sẽ bỏ lỡ thời điểm ra quyết định quan trọng do độ trễ trong giao tiếp.
Khi các hệ thống AI trở nên ngày càng thông minh, những rủi ro bảo mật tiềm ẩn cũng đang gia tăng. Ví dụ, trong các tình huống y tế, AI cần truy cập vào dữ liệu gene nhạy cảm của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính doanh nghiệp chưa công khai. Hơn nữa, các hệ thống AI cũng có thể tồn tại sự thiên lệch trong thuật toán, chẳng hạn như đưa ra các đề xuất lương không công bằng đối với một số nhóm trong quá trình tuyển dụng. Nghiêm trọng hơn, các hệ thống AI có thể trở thành mục tiêu của các cuộc tấn công mạng, thông qua việc cài cắm các tín hiệu cụ thể để ảnh hưởng đến phán đoán của chúng.
Để ứng phó với những thách thức này, ngành công nghiệp đã đưa ra nhiều chiến lược bảo mật, trong đó mã hóa đồng cấu hoàn toàn (Fully Homomorphic Encryption, FHE) được coi là công nghệ then chốt để giải quyết vấn đề an ninh trong thời đại AI. FHE cho phép thực hiện tính toán trên dữ liệu ở trạng thái mã hóa, điều này có nghĩa là ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc.
Trên phương diện dữ liệu, FHE đảm bảo rằng tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) được xử lý trong trạng thái mã hóa, hiệu quả ngăn chặn rò rỉ thông tin. Ở cấp độ thuật toán, FHE thực hiện "huấn luyện mô hình mã hóa", khiến ngay cả các nhà phát triển cũng không thể nhìn thấy quá trình quyết định của AI. Trong lĩnh vực hợp tác đa tác nhân, việc sử dụng kỹ thuật mã hóa ngưỡng có thể đảm bảo rằng ngay cả khi một nút đơn lẻ bị tấn công, cũng sẽ không dẫn đến rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ bảo mật Web3 có thể không liên quan trực tiếp đến người dùng thông thường, nhưng nó có ảnh hưởng sâu rộng đến mọi người. Trong thế giới kỹ thuật số đầy thách thức này, nếu không chủ động thực hiện các biện pháp bảo mật, người dùng sẽ gặp khó khăn trong việc bảo vệ quyền lợi của mình.
Hiện nay, đã có nhiều dự án bắt đầu khám phá lĩnh vực an ninh Web3. Ví dụ, một dự án đã tiên phong triển khai công nghệ mã hóa đồng cấu hoàn toàn trên mạng chính và hợp tác với nhiều công ty công nghệ nổi tiếng. Tuy nhiên, các dự án an ninh thường không được các nhà đầu tư ưa chuộng, liệu có thể phá vỡ tình thế này và trở thành người dẫn đầu trong lĩnh vực an ninh hay không vẫn còn chờ thời gian xác minh.
Với việc công nghệ AI ngày càng tiến gần đến trình độ trí tuệ con người, các hệ thống phòng thủ phi truyền thống trở nên ngày càng quan trọng. Mã hóa đồng cấu không chỉ giải quyết các vấn đề an ninh hiện tại mà còn đặt nền tảng cho thời đại AI mạnh mẽ trong tương lai. Trên con đường menuju AGI, mã hóa đồng cấu không còn là tùy chọn nữa, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
13 thích
Phần thưởng
13
6
Chia sẻ
Bình luận
0/400
LuckyBlindCat
· 17giờ trước
Mã hóa này có đáng tin không, tôi không dám tin lắm.
Xem bản gốcTrả lời0
HodlKumamon
· 17giờ trước
Hiểu rồi mèo~ Bảo mật dữ liệu mã hóa mới là lá chắn lớn nhất cho tương lai desu
Xem bản gốcTrả lời0
ZeroRushCaptain
· 17giờ trước
Mua đáy thành chuyên gia rút tiền, vẫn sống trong ảo tưởng thị trường tăng.
Xem bản gốcTrả lời0
NftPhilanthropist
· 17giờ trước
yo fhe là như bằng chứng tác động mới cho an toàn ai fr
Xem bản gốcTrả lời0
ForkYouPayMe
· 17giờ trước
Một sản phẩm quảng cáo thổi phồng nữa.
Xem bản gốcTrả lời0
OnChainDetective
· 17giờ trước
các mô hình cho thấy một "giải pháp" khác bị thổi phồng quá mức thật lòng mà nói... đã thấy bộ phim này trước đây
Mã hóa đồng cấu hoàn toàn FHE: Bảo mật AI mới
Bảo mật AI vấn đề ngày càng nổi bật, mã hóa đồng cấu hoàn toàn trở thành giải pháp
Gần đây, một mô hình AI có tên là Manus đã đạt được thành tích đột phá trong bài kiểm tra chuẩn GAIA, vượt qua các mô hình ngôn ngữ lớn cùng cấp. Manus thể hiện khả năng hoàn thành độc lập các nhiệm vụ phức tạp, chẳng hạn như đàm phán thương mại xuyên quốc gia, liên quan đến phân tích hợp đồng, lập kế hoạch chiến lược và xây dựng phương án. So với các hệ thống truyền thống, Manus có những ưu thế rõ rệt trong việc phân tách mục tiêu động, suy luận đa dạng và học tập tăng cường trí nhớ. Nó có thể chia nhỏ các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu khác nhau, và liên tục nâng cao hiệu quả quyết định và giảm tỷ lệ sai sót thông qua học tập tăng cường.
Sự xuất hiện của Manus một lần nữa đã kích thích cuộc thảo luận trong ngành về con đường phát triển AI: Tương lai sẽ hướng tới trí tuệ nhân tạo tổng quát (AGI) hay hệ thống đa tác nhân (MAS)? Điều này thực sự phản ánh mâu thuẫn cốt lõi trong việc cân bằng giữa hiệu quả và an toàn trong phát triển AI. Trí tuệ đơn thể càng gần AGI, quá trình ra quyết định của nó càng trở nên không minh bạch, rủi ro cũng theo đó mà tăng lên; trong khi hợp tác đa tác nhân mặc dù có thể phân tán rủi ro, nhưng có thể sẽ bỏ lỡ thời điểm ra quyết định quan trọng do độ trễ trong giao tiếp.
Khi các hệ thống AI trở nên ngày càng thông minh, những rủi ro bảo mật tiềm ẩn cũng đang gia tăng. Ví dụ, trong các tình huống y tế, AI cần truy cập vào dữ liệu gene nhạy cảm của bệnh nhân; trong các cuộc đàm phán tài chính, có thể liên quan đến thông tin tài chính doanh nghiệp chưa công khai. Hơn nữa, các hệ thống AI cũng có thể tồn tại sự thiên lệch trong thuật toán, chẳng hạn như đưa ra các đề xuất lương không công bằng đối với một số nhóm trong quá trình tuyển dụng. Nghiêm trọng hơn, các hệ thống AI có thể trở thành mục tiêu của các cuộc tấn công mạng, thông qua việc cài cắm các tín hiệu cụ thể để ảnh hưởng đến phán đoán của chúng.
Để ứng phó với những thách thức này, ngành công nghiệp đã đưa ra nhiều chiến lược bảo mật, trong đó mã hóa đồng cấu hoàn toàn (Fully Homomorphic Encryption, FHE) được coi là công nghệ then chốt để giải quyết vấn đề an ninh trong thời đại AI. FHE cho phép thực hiện tính toán trên dữ liệu ở trạng thái mã hóa, điều này có nghĩa là ngay cả hệ thống AI cũng không thể giải mã dữ liệu gốc.
Trên phương diện dữ liệu, FHE đảm bảo rằng tất cả thông tin do người dùng nhập (bao gồm đặc điểm sinh học, giọng nói, v.v.) được xử lý trong trạng thái mã hóa, hiệu quả ngăn chặn rò rỉ thông tin. Ở cấp độ thuật toán, FHE thực hiện "huấn luyện mô hình mã hóa", khiến ngay cả các nhà phát triển cũng không thể nhìn thấy quá trình quyết định của AI. Trong lĩnh vực hợp tác đa tác nhân, việc sử dụng kỹ thuật mã hóa ngưỡng có thể đảm bảo rằng ngay cả khi một nút đơn lẻ bị tấn công, cũng sẽ không dẫn đến rò rỉ dữ liệu toàn cầu.
Mặc dù công nghệ bảo mật Web3 có thể không liên quan trực tiếp đến người dùng thông thường, nhưng nó có ảnh hưởng sâu rộng đến mọi người. Trong thế giới kỹ thuật số đầy thách thức này, nếu không chủ động thực hiện các biện pháp bảo mật, người dùng sẽ gặp khó khăn trong việc bảo vệ quyền lợi của mình.
Hiện nay, đã có nhiều dự án bắt đầu khám phá lĩnh vực an ninh Web3. Ví dụ, một dự án đã tiên phong triển khai công nghệ mã hóa đồng cấu hoàn toàn trên mạng chính và hợp tác với nhiều công ty công nghệ nổi tiếng. Tuy nhiên, các dự án an ninh thường không được các nhà đầu tư ưa chuộng, liệu có thể phá vỡ tình thế này và trở thành người dẫn đầu trong lĩnh vực an ninh hay không vẫn còn chờ thời gian xác minh.
Với việc công nghệ AI ngày càng tiến gần đến trình độ trí tuệ con người, các hệ thống phòng thủ phi truyền thống trở nên ngày càng quan trọng. Mã hóa đồng cấu không chỉ giải quyết các vấn đề an ninh hiện tại mà còn đặt nền tảng cho thời đại AI mạnh mẽ trong tương lai. Trên con đường menuju AGI, mã hóa đồng cấu không còn là tùy chọn nữa, mà là điều kiện cần thiết để đảm bảo sự phát triển an toàn của AI.