Kết nối với chúng tôi

Trí tuệ nhân tạo

Cần khẩn cấp luật ngăn chặn khủng bố AI

SHARE:

Được phát hành

on

Chúng tôi sử dụng đăng ký của bạn để cung cấp nội dung theo những cách bạn đã đồng ý và để cải thiện sự hiểu biết của chúng tôi về bạn. Bạn có thể bỏ theo dõi bất cứ lúc nào.

Theo một tổ chức tư vấn chống chủ nghĩa cực đoan, các chính phủ nên "khẩn trương xem xét" các quy định mới để ngăn chặn trí tuệ nhân tạo tuyển mộ những kẻ khủng bố.

Viện Đối thoại Chiến lược (ISD) đã nói rằng "cần có luật pháp rõ ràng để theo kịp" các mối đe dọa do những kẻ khủng bố đặt lên mạng.

Điều này xảy ra sau một thử nghiệm trong đó một chatbot "tuyển dụng" người đánh giá luật chống khủng bố độc lập cho Vương quốc Anh.

Chính phủ Vương quốc Anh cho biết họ sẽ làm "tất cả những gì có thể" để bảo vệ công chúng.

Theo Jonathan Hall KC, một nhà đánh giá luật chống khủng bố độc lập của chính phủ, một trong những vấn đề quan trọng nhất là “rất khó để xác định một người theo pháp luật có thể chịu trách nhiệm về các tuyên bố do chatbot tạo ra khuyến khích khủng bố”.

Ông Hall đã thực hiện một thử nghiệm trên Character.ai, một trang web cho phép người dùng tham gia trò chuyện với các chatbot do người dùng khác xây dựng và phát triển bởi trí tuệ nhân tạo.

Anh ta đã trò chuyện với một số bot khác nhau, dường như được thiết kế để bắt chước câu trả lời của các nhóm chiến binh và cực đoan khác.

quảng cáo

Một thủ lĩnh cấp cao của Nhà nước Hồi giáo thậm chí còn được gọi là "lãnh đạo cấp cao".

Theo ông Hall, bot đã cố gắng tuyển dụng anh ta và tuyên bố "hoàn toàn cống hiến và cống hiến" cho nhóm cực đoan, điều bị cấm theo luật cấm khủng bố ở Vương quốc Anh.

Mặt khác, ông Hall tuyên bố rằng không có hành vi vi phạm luật pháp nào ở Vương quốc Anh vì thông tin liên lạc không được thực hiện bởi con người.

Theo những gì ông nói, các quy định mới phải chịu trách nhiệm pháp lý đối với cả trang web lưu trữ chatbot và những người tạo ra chúng.

Khi nói đến những con bot mà anh ấy gặp trên Character.ai, anh ấy nói rằng "có thể có một số giá trị gây sốc, thử nghiệm và có thể là một số khía cạnh châm biếm" đằng sau việc tạo ra chúng.

Ngoài ra, ông Hall còn có thể phát triển chatbot "Osama Bin Laden" của riêng mình và ông đã nhanh chóng xóa nó đi, thể hiện "sự nhiệt tình vô bờ bến" đối với các hoạt động khủng bố.

Thí nghiệm của ông diễn ra trong bối cảnh ngày càng có nhiều lo ngại về cách thức mà những kẻ cực đoan có thể khai thác trí tuệ nhân tạo được cải tiến.

Theo nghiên cứu được chính phủ Vương quốc Anh công bố vào năm 2025, trí tuệ nhân tạo có thể được “sử dụng để thu thập kiến ​​thức về các cuộc tấn công vật lý của các tác nhân bạo lực phi nhà nước, bao gồm cả vũ khí hóa học, sinh học và phóng xạ”. ấn phẩm tháng mười của họ.

ISD tuyên bố thêm rằng "cần có luật pháp rõ ràng để theo kịp bối cảnh thay đổi liên tục của các mối đe dọa khủng bố trực tuyến."

Theo tổ chức tư vấn, Đạo luật An toàn Trực tuyến của Vương quốc Anh, được thông qua thành luật vào năm 2023, “chủ yếu hướng tới việc quản lý rủi ro do các nền tảng truyền thông xã hội gây ra” hơn là trí tuệ nhân tạo.

Nó cũng nói thêm rằng những người cấp tiến "có xu hướng sớm áp dụng các công nghệ mới nổi và không ngừng tìm kiếm cơ hội tiếp cận đối tượng mới".

ISD nêu thêm: “Nếu các công ty AI không thể chứng minh rằng đã đầu tư đầy đủ vào việc đảm bảo sản phẩm của họ an toàn, thì chính phủ nên khẩn trương xem xét luật mới dành riêng cho AI”.

Tuy nhiên, họ đã đề cập rằng, theo giám sát mà họ đã tiến hành, việc sử dụng trí tuệ nhân tạo tổng hợp của các tổ chức cực đoan là "tương đối hạn chế" vào thời điểm hiện tại.

Nhân vật AI tuyên bố rằng an toàn là "ưu tiên hàng đầu" và những gì ông Hall mô tả là rất đáng tiếc và không phản ánh loại nền tảng mà công ty đang cố gắng thiết lập.

Theo tổ chức này, "Lời nói căm thù và chủ nghĩa cực đoan đều bị cấm bởi Điều khoản dịch vụ của chúng tôi".

"Cách tiếp cận của chúng tôi đối với nội dung do AI tạo ra xuất phát từ một nguyên tắc đơn giản: Sản phẩm của chúng tôi không bao giờ được tạo ra phản hồi có khả năng gây hại cho người dùng hoặc khuyến khích người dùng làm hại người khác".

Với mục đích "tối ưu hóa các phản ứng an toàn", công ty tuyên bố rằng họ đã đào tạo các mô hình của mình theo cách phù hợp.

Ngoài ra, họ tuyên bố rằng họ có cơ chế kiểm duyệt, cho phép mọi người báo cáo thông tin vi phạm các quy tắc của họ và họ cam kết thực hiện hành động nhanh chóng bất cứ khi nào nội dung báo cáo vi phạm.

Nếu lên nắm quyền, Đảng Lao động đối lập ở Vương quốc Anh đã tuyên bố rằng việc dạy trí tuệ nhân tạo kích động bạo lực hoặc cực đoan hóa những người dễ bị tổn thương sẽ là vi phạm hình sự.

Chính phủ Vương quốc Anh tuyên bố "cảnh báo về những rủi ro đáng kể về an ninh quốc gia và an toàn công cộng" mà trí tuệ nhân tạo đặt ra.

“Chúng tôi sẽ làm tất cả những gì có thể để bảo vệ công chúng khỏi mối đe dọa này bằng cách hợp tác với chính phủ và tăng cường hợp tác với các nhà lãnh đạo công ty công nghệ, chuyên gia trong ngành và các quốc gia có cùng chí hướng.”

Một trăm triệu bảng Anh sẽ được chính phủ đầu tư vào viện an toàn trí tuệ nhân tạo vào năm 2023.

Chia sẻ bài viết này:

EU Reporter đăng các bài báo từ nhiều nguồn bên ngoài khác nhau thể hiện nhiều quan điểm. Các vị trí được đảm nhận trong các bài báo này không nhất thiết phải là của Phóng viên EU.

Video nổi bật