Liên minh châu Âu (EU) đã tiến thêm được một bước quan trọng trong quá trình hiện thực hóa Đạo luật AI khi các nghị sĩ đạt được đồng thuận về bản dự thảo các nguyên tắc minh bạch và quản lý rủi ro mới với hệ thống AI hôm 5-10.
Mục đích của bộ luật là đảm bảo cho xu thế phát triển có đạo đức và lấy con người là trung tâm của AI. "Với tác động biến đổi sâu sắc mà AI sẽ mang lại cho xã hội và nền kinh tế của chúng ta, Đạo luật AI rất có thể là bộ luật quan trọng nhất... khiến AI đáng tin cậy, an toàn và lấy con người làm trung tâm", nghị viên châu Âu Dragos Tudorache nói.
Con người là trung tâm
Theo EU, dự thảo nhằm đảm bảo các hệ thống AI được con người giám sát, an toàn, minh bạch, có thể truy nguyên, không phân biệt đối xử và thân thiện với môi trường. Các nhà làm luật cũng muốn có một định nghĩa thống nhất, trung lập về công nghệ để có thể áp dụng cho các hệ thống AI hiện tại và tương lai.
Trong đạo luật, các quy định sẽ tùy thuộc vào mức độ rủi ro của các nền tảng AI. Theo đó, những AI ở mức "không thể chấp nhận" đối với sự an toàn của con người sẽ bị cấm, bao gồm các công nghệ thao túng có mục đích hoặc tiềm ẩn, khai thác các điểm yếu của con người hoặc phân loại con người.
Những công nghệ bị cấm trên AI bao gồm hệ thống nhận dạng sinh trắc học từ xa "theo thời gian thực", các yếu tố nhạy cảm (như giới tính, chủng tộc...), đoán định hành vi phạm tội, nhận dạng cảm xúc, lấy dữ liệu sinh trắc từ mạng xã hội và camera giám sát công cộng...
Những AI rủi ro cao có thể gây hại cho con người hay môi trường, hoặc ảnh hưởng đến lá phiếu trong bầu cử, hay được định nghĩa là các nền tảng xã hội có trên 45 triệu người sử dụng.
Đối với những nền tảng AI cho mục đích tổng thể, các nhà cung cấp phải đánh giá, giảm thiểu rủi ro và đảm bảo không vi phạm quyền cơ bản, sức khỏe, an toàn và môi trường, dân chủ và luật pháp.
Đặc biệt các mô hình nền tảng như GPT sẽ chịu thêm quy định bổ sung về tính minh bạch, chẳng hạn phải thông báo nội dung do AI thực hiện, ngăn chặn AI tạo ra nội dung bất hợp pháp và công bố dữ liệu có bản quyền được dùng để đào tạo AI.
Điều khiến các hãng công nghệ lo lắng là hầu hết AI có thể bị xếp vào nhóm rủi ro cao và việc vi phạm có thể đối mặt án phạt lên đến 43 triệu USD, hoặc 7% doanh thu cả năm. Vì vậy nhiều công ty đang ra sức vận động để điều chỉnh trước khi đạo luật được chốt vào cuối năm nay.
Không thể không có luật
Theo Hãng tin Bloomberg, Ủy ban châu Âu, Nghị viện châu Âu và các nước EU đang thảo luận về một cách tiếp cận cân bằng, vừa nhằm giải quyết những lo ngại từ các mô hình ngôn ngữ mạnh mẽ, nền tảng cho các chatbot AI như GPT-4 của OpenAI, vừa không gây áp lực lớn lên các start-up mới.
Chẳng hạn để thúc đẩy đổi mới AI, châu Âu sẽ miễn trừ áp luật đối với các hoạt động nghiên cứu và các yếu tố được cung cấp theo giấy phép nguồn mở.
Ngược lại, công dân có quyền khiếu nại về việc AI vi phạm quyền của họ. Dù vậy, dự thảo vẫn còn một số vấn đề lớn như làm sao để quản lý AI và liệu có nên cấm hoàn toàn chức năng quét khuôn mặt các đám đông không.
Nghị viện châu Âu ủng hộ cấm hoàn toàn việc giám sát sinh trắc học này nhưng nhiều nước châu Âu không tán thành.
Theo giới quan sát, chưa rõ đạo luật này sẽ hiệu quả ra sao khi mà công nghệ dường như luôn đi trước các nhà làm luật một bước. Các bản cập nhật trước đó của dự thảo còn chưa đề cập đến ChatGPT, vốn chỉ mới ra đời cuối năm ngoái nhưng đã gây nhiều tranh cãi.
Trong khi đó, phía Mỹ cảnh báo các quy định của EU có nguy cơ ảnh hưởng đến ngành công nghệ này, dẫn đến sự di cư việc làm và đầu tư sang các thị trường khác, đồng thời giảm sự cạnh tranh tại thị trường châu Âu.
"Tất nhiên, công nghệ phát triển và có thể chuyển đổi mục đích sử dụng nhanh chóng là điều khó quản lý, khi ngay cả các nhà phát triển công nghệ cũng không hoàn toàn rõ mọi thứ sẽ diễn ra thế nào.
Nhưng chắc chắn sẽ tệ hơn nếu tất cả chúng ta tiếp tục hoạt động mà không có quy định đầy đủ nào cả", bà Francine Bennett, quyền giám đốc của Viện Ada Lovelace ở London, Anh, nhận định.
Nhiều nước muốn quản lý AI
Không chỉ châu Âu, nhiều nước trên thế giới cũng đang xem xét các bước để quản lý công nghệ mới mẻ này.
Theo Hãng tin Reuters, Úc cho biết sẽ siết việc chia sẻ nội dung lạm dụng tình dục trẻ em do AI tạo ra, trong khi Nhật Bản dự kiến đưa ra luật vào cuối năm 2023. Hàng loạt quốc gia như Pháp, Ý, Tây Ban Nha, Nhật cũng đang điều tra các vi phạm trong việc phát triển AI, bao gồm cả ChatGPT.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận