Kết nối với chúng tôi

Trí tuệ nhân tạo

Đạo luật trí tuệ nhân tạo: Hội đồng và Quốc hội đạt được thỏa thuận về các quy tắc đầu tiên dành cho AI trên thế giới

SHARE:

Được phát hành

on

Chúng tôi sử dụng đăng ký của bạn để cung cấp nội dung theo những cách bạn đã đồng ý và để cải thiện sự hiểu biết của chúng tôi về bạn. Bạn có thể bỏ theo dõi bất cứ lúc nào.

Sau cuộc đàm phán 'marathon' kéo dài ba ngày, chủ tịch Hội đồng và các nhà đàm phán của Nghị viện Châu Âu đã đạt được thỏa thuận tạm thời về đề xuất về các quy tắc hài hòa về trí tuệ nhân tạo (AI), cái gọi là đạo luật trí tuệ nhân tạo. Dự thảo quy định nhằm đảm bảo rằng các hệ thống AI được đưa vào thị trường châu Âu và được sử dụng ở EU được an toàn và tôn trọng các quyền cơ bản cũng như giá trị của EU. Đề xuất mang tính bước ngoặt này cũng nhằm mục đích kích thích đầu tư và đổi mới về AI ở châu Âu.

Carme Artigas, Bộ trưởng Ngoại giao Tây Ban Nha về số hóa và trí tuệ nhân tạo

Đây là một thành tựu lịch sử và là một cột mốc quan trọng hướng tới tương lai! Thỏa thuận ngày hôm nay giải quyết một cách hiệu quả thách thức toàn cầu trong môi trường công nghệ phát triển nhanh chóng trên một lĩnh vực quan trọng cho tương lai của xã hội và nền kinh tế của chúng ta. Và trong nỗ lực này, chúng tôi đã cố gắng giữ được sự cân bằng cực kỳ tinh tế: thúc đẩy đổi mới và tiếp thu trí tuệ nhân tạo trên khắp châu Âu đồng thời tôn trọng đầy đủ các quyền cơ bản của công dân chúng tôi.Carme Artigas, Bộ trưởng Ngoại giao Tây Ban Nha về số hóa và trí tuệ nhân tạo

Đạo luật AI là một Hàng đầu sáng kiến ​​lập pháp có tiềm năng thúc đẩy sự phát triển và tiếp thu AI an toàn và đáng tin cậy trên toàn thị trường chung của EU bởi cả các chủ thể tư nhân và nhà nước. Ý tưởng chính là điều chỉnh AI dựa trên khả năng gây hại cho xã hội của nó sau một 'dựa trên rủi ro' tiếp cận: rủi ro càng cao, quy định càng chặt chẽ. Là đề xuất lập pháp đầu tiên thuộc loại này trên thế giới, nó có thể đặt ra một tiêu chuẩn toàn cầu đối với quy định về AI ở các khu vực pháp lý khác, giống như GDPR đã làm, từ đó thúc đẩy cách tiếp cận của Châu Âu đối với quy định công nghệ trên phạm vi thế giới.

Nội dung chính của thỏa thuận tạm thời

So với đề xuất ban đầu của Ủy ban, các yếu tố mới chính của thỏa thuận tạm thời có thể được tóm tắt như sau:

  • quy định về các mô hình AI có mục đích chung có tác động cao có thể gây ra rủi ro hệ thống trong tương lai cũng như rủi ro cao Hệ thống AI
  • một hệ thống sửa đổi của quản trị với một số quyền thực thi ở cấp EU
  • phần mở rộng của danh sách cấm nhưng với khả năng sử dụng nhận dạng sinh trắc học từ xa bởi các cơ quan thực thi pháp luật trong không gian công cộng, với các biện pháp bảo vệ
  • bảo vệ quyền tốt hơn thông qua nghĩa vụ đối với người triển khai hệ thống AI có rủi ro cao phải tiến hành đánh giá tác động của các quyền cơ bản trước khi đưa hệ thống AI vào sử dụng.

Nói một cách cụ thể hơn, thỏa thuận tạm thời bao gồm các khía cạnh sau:

Định nghĩa và phạm vi

Để đảm bảo rằng định nghĩa của một hệ thống AI cung cấp các tiêu chí đủ rõ ràng để phân biệt AI với các hệ thống phần mềm đơn giản hơn, thì thỏa thuận thỏa hiệp sẽ điều chỉnh định nghĩa đó với cách tiếp cận do OECD đề xuất.

Thỏa thuận tạm thời cũng làm rõ rằng quy định này không áp dụng cho các lĩnh vực ngoài phạm vi luật pháp EU và trong mọi trường hợp sẽ không ảnh hưởng đến năng lực của các quốc gia thành viên trong An ninh quốc gia hoặc bất kỳ đơn vị nào được giao nhiệm vụ trong lĩnh vực này. Hơn nữa, đạo luật AI sẽ không áp dụng cho các hệ thống được sử dụng riêng cho quân sự or quốc phòng mục đích. Tương tự, thỏa thuận quy định rằng quy định sẽ không áp dụng cho các hệ thống AI được sử dụng cho mục đích duy nhất là Nghiên cứu và đổi mới, hoặc cho những người sử dụng AI vì lý do không chuyên nghiệp.

quảng cáo

Phân loại các hệ thống AI là các hoạt động AI có rủi ro cao và bị cấm

Thỏa thuận thỏa hiệp quy định một lớp bảo vệ ngang, bao gồm phân loại rủi ro cao, để đảm bảo rằng các hệ thống AI không có khả năng gây ra vi phạm quyền cơ bản nghiêm trọng hoặc các rủi ro đáng kể khác sẽ không bị nắm bắt. Hệ thống AI chỉ trình bày rủi ro hạn chế sẽ phải chịu ánh sáng rất nhẹ nghĩa vụ minh bạch, chẳng hạn như tiết lộ rằng nội dung do AI tạo ra để người dùng có thể đưa ra quyết định sáng suốt về việc sử dụng tiếp.

Một loạt các rủi ro cao Các hệ thống AI sẽ được cấp phép nhưng phải tuân theo một loạt yêu cầu và nghĩa vụ để có thể tiếp cận thị trường EU. Những yêu cầu này đã được các nhà đồng lập pháp làm rõ và điều chỉnh sao cho phù hợp hơn. khả thi về mặt kỹ thuậtbớt gánh nặng hơn để các bên liên quan tuân thủ, chẳng hạn như liên quan đến chất lượng dữ liệu hoặc liên quan đến tài liệu kỹ thuật mà các doanh nghiệp vừa và nhỏ phải soạn thảo để chứng minh rằng hệ thống AI có rủi ro cao của họ tuân thủ các yêu cầu.

Do hệ thống AI được phát triển và phân phối thông qua các chuỗi giá trị phức tạp nên thỏa thuận thỏa hiệp bao gồm những thay đổi làm rõ phân bổ trách nhiệmvai trò của các diễn viên khác nhau trong các chuỗi đó, đặc biệt là các nhà cung cấp và người dùng hệ thống AI. Nó cũng làm rõ mối quan hệ giữa trách nhiệm theo Đạo luật AI và các trách nhiệm đã tồn tại theo luật khác, chẳng hạn như luật bảo vệ dữ liệu liên quan của EU hoặc luật ngành.

Đối với một số ứng dụng của AI, rủi ro được coi là không thể chấp nhận và do đó, các hệ thống này sẽ bị cấm ở EU. Thỏa thuận tạm thời cấm, ví dụ, nhận thức thao túng hành vi, không có mục tiêu tháo dỡ hình ảnh khuôn mặt từ internet hoặc đoạn phim CCTV, nhận biết cảm xúc tại nơi làm việc và các cơ sở giáo dục, điểm xã hội, phân loại sinh trắc học để suy ra dữ liệu nhạy cảm, chẳng hạn như khuynh hướng tình dục hoặc tín ngưỡng tôn giáo và một số trường hợp -chính sách dự báo Cho cá nhân.

Ngoại lệ thực thi pháp luật

Xét tính đặc thù của cơ quan thực thi pháp luật và nhu cầu duy trì khả năng sử dụng AI trong công việc quan trọng của họ, một số thay đổi trong đề xuất của Ủy ban đã được thống nhất liên quan đến việc sử dụng hệ thống AI cho mục đích thực thi pháp luật. Tùy theo mức độ phù hợp biện pháp bảo vệ, những thay đổi này nhằm phản ánh nhu cầu tôn trọng tính bảo mật của dữ liệu hoạt động nhạy cảm liên quan đến hoạt động của họ. Ví dụ: một quy trình khẩn cấp đã được đưa ra cho phép các cơ quan thực thi pháp luật triển khai một công cụ AI có rủi ro cao chưa vượt qua được quy định. đánh giá sự đồng nhất thủ tục trong trường hợp khẩn cấp. Tuy nhiên, một cơ chế cụ thể cũng đã được đưa ra để đảm bảo rằng các quyền cơ bản sẽ được bảo vệ đầy đủ trước mọi hành vi lạm dụng tiềm ẩn đối với hệ thống AI.

Hơn nữa, liên quan đến việc sử dụng thời gian thực nhận dạng sinh trắc học từ xa trong các không gian có thể tiếp cận công cộng, thỏa thuận tạm thời làm rõ các mục tiêu trong đó việc sử dụng đó là thực sự cần thiết cho mục đích thực thi pháp luật và do đó các cơ quan thực thi pháp luật phải được phép đặc biệt sử dụng các hệ thống đó. Thỏa thuận thỏa hiệp quy định các biện pháp bảo vệ bổ sung và giới hạn những trường hợp ngoại lệ này đối với các trường hợp nạn nhân của một số tội phạm nhất định, ngăn chặn các mối đe dọa thực sự, hiện tại hoặc có thể thấy trước, chẳng hạn như các cuộc tấn công khủng bố và tìm kiếm những người bị nghi ngờ phạm tội nghiêm trọng nhất.

Các mô hình nền tảng và hệ thống AI có mục đích chung

Các điều khoản mới đã được thêm vào để tính đến các tình huống trong đó hệ thống AI có thể được sử dụng cho nhiều mục đích khác nhau (AI mục đích chung) và nơi công nghệ AI có mục đích chung sau đó được tích hợp vào một hệ thống có rủi ro cao khác. Thỏa thuận tạm thời cũng giải quyết các trường hợp cụ thể của hệ thống AI (GPAI) có mục đích chung.

Các quy định cụ thể cũng đã được thống nhất cho mô hình nền tảng, các hệ thống lớn có khả năng thực hiện thành thạo nhiều nhiệm vụ đặc biệt, chẳng hạn như tạo video, văn bản, hình ảnh, trò chuyện bằng ngôn ngữ bên, tính toán hoặc tạo mã máy tính. Thỏa thuận tạm thời quy định rằng các mô hình nền tảng phải tuân thủ các yêu cầu cụ thể nghĩa vụ minh bạch trước khi chúng được đưa ra thị trường. Một chế độ chặt chẽ hơn được đưa ra đối với 'ảnh hưởng lơn' các mô hình nền tảng. Đây là những mô hình nền tảng được đào tạo với lượng dữ liệu lớn và có độ phức tạp, khả năng và hiệu suất nâng cao trên mức trung bình, có thể phát tán rủi ro hệ thống dọc theo chuỗi giá trị.

Một kiến ​​trúc quản trị mới

Tuân theo các quy định mới về mô hình GPAI và nhu cầu rõ ràng về việc thực thi chúng ở cấp EU, Văn phòng AI trong Ủy ban được thành lập với nhiệm vụ giám sát các mô hình AI tiên tiến nhất này, góp phần thúc đẩy các tiêu chuẩn và phương pháp thử nghiệm cũng như thực thi các quy tắc chung ở tất cả các quốc gia thành viên. MỘT Hội đồng khoa học gồm các chuyên gia độc lập sẽ tư vấn cho Văn phòng AI về các mô hình GPAI, bằng cách góp phần phát triển các phương pháp đánh giá khả năng của các mô hình nền móng, tư vấn về việc chỉ định và xuất hiện các mô hình nền móng có tác động cao, đồng thời giám sát các rủi ro an toàn vật liệu có thể xảy ra liên quan đến các mô hình nền móng.

Sản phẩm Ban AI, bao gồm đại diện của các quốc gia thành viên, sẽ vẫn là cơ quan phối hợp và cơ quan tư vấn cho Ủy ban và sẽ trao vai trò quan trọng cho các Quốc gia Thành viên trong việc thực hiện quy định, bao gồm cả việc thiết kế các quy tắc thực hành cho các mô hình nền tảng. Cuối cùng, một diễn đàn tư vấn đối với các bên liên quan, chẳng hạn như đại diện ngành, doanh nghiệp vừa và nhỏ, công ty khởi nghiệp, xã hội dân sự và học viện, sẽ được thành lập để cung cấp kiến ​​thức chuyên môn kỹ thuật cho Hội đồng AI.

Hình phạt

Mức phạt đối với hành vi vi phạm đạo luật AI được tính theo phần trăm doanh thu toàn cầu hàng năm của công ty vi phạm trong năm tài chính trước đó hoặc một số tiền được xác định trước, tùy theo mức nào cao hơn. Số tiền này sẽ là 35 triệu euro hoặc 7% đối với hành vi vi phạm các ứng dụng AI bị cấm, 15 triệu euro hoặc 3% đối với hành vi vi phạm nghĩa vụ của đạo luật AI và 7,5 triệu euro hoặc 1,5% đối với việc cung cấp thông tin không chính xác. Tuy nhiên, hiệp định tạm thời quy định mũ tương xứng hơn về xử phạt hành chính đối với doanh nghiệp nhỏ và vừa, doanh nghiệp khởi nghiệp vi phạm các quy định của Luật AI.

Thỏa thuận thỏa hiệp cũng nêu rõ rằng một thể nhân hoặc pháp nhân có thể khiếu nại lên cơ quan có liên quan. cơ quan giám sát thị trường liên quan đến việc không tuân thủ đạo luật AI và có thể mong đợi rằng khiếu nại đó sẽ được xử lý theo các thủ tục chuyên dụng của cơ quan đó.

Minh bạch và bảo vệ các quyền cơ bản

Thỏa thuận tạm thời quy định một đánh giá tác động của các quyền cơ bản trước khi một hệ thống AI có rủi ro cao được các nhà triển khai đưa ra thị trường. Thỏa thuận tạm thời cũng quy định về việc tăng cường minh bạch liên quan đến việc sử dụng các hệ thống AI có rủi ro cao. Đáng chú ý, một số điều khoản trong đề xuất của Ủy ban đã được sửa đổi để chỉ ra rằng một số người dùng nhất định của hệ thống AI có rủi ro cao là các tổ chức công cũng sẽ có nghĩa vụ phải đăng ký trong Cơ sở dữ liệu EU cho các hệ thống AI có rủi ro cao. Hơn nữa, các điều khoản mới được bổ sung nhấn mạnh vào nghĩa vụ của người sử dụng hệ thống nhận dạng cảm xúc để thông báo cho các thể nhân khi họ tiếp xúc với một hệ thống như vậy.

Các biện pháp hỗ trợ đổi mới

Với quan điểm tạo ra một khuôn khổ pháp lý thân thiện với đổi mới hơn và thúc đẩy việc học hỏi các quy định dựa trên bằng chứng, các điều khoản liên quan đến các biện pháp hỗ trợ đổi mới đã được sửa đổi đáng kể so với đề xuất của Ủy ban.

Đáng chú ý, người ta đã làm rõ rằng AI hộp cát quy định, được cho là sẽ thiết lập một môi trường được kiểm soát để phát triển, thử nghiệm và xác nhận các hệ thống AI đổi mới, cũng sẽ cho phép thử nghiệm các hệ thống AI đổi mới trong điều kiện thế giới thực. Hơn nữa, các quy định mới đã được bổ sung cho phép thử nghiệm của hệ thống AI ở điều kiện thế giới thực, trong những điều kiện và biện pháp bảo vệ cụ thể. Để giảm bớt gánh nặng hành chính cho các công ty nhỏ hơn, thỏa thuận tạm thời bao gồm một danh sách các hành động sẽ được thực hiện để hỗ trợ các nhà khai thác đó và đưa ra một số hạn chế và được quy định rõ ràng.

Hiệu lực thi hành

Thỏa thuận tạm thời quy định rằng đạo luật AI sẽ được áp dụng hai năm sau khi nó có hiệu lực, với một số ngoại lệ đối với các quy định cụ thể.

Các bước tiếp theo

Sau thỏa thuận tạm thời ngày hôm nay, công việc sẽ tiếp tục ở cấp độ kỹ thuật trong những tuần tới để hoàn thiện các chi tiết của quy định mới. Tổng thống sẽ đệ trình văn bản thỏa hiệp lên đại diện của các quốc gia thành viên (Coreper) để thông qua sau khi công việc này được ký kết.

Toàn bộ văn bản sẽ cần phải được cả hai tổ chức xác nhận và trải qua quá trình sửa đổi ngôn ngữ pháp lý trước khi được các nhà đồng lập pháp chính thức thông qua.

Thông tin cơ bản

Đề xuất của Ủy ban, được trình bày vào tháng 2021 năm XNUMX, là một yếu tố quan trọng trong chính sách của EU nhằm thúc đẩy sự phát triển và tiếp thu trên toàn thị trường duy nhất về AI an toàn và hợp pháp, tôn trọng các quyền cơ bản.

Đề xuất này tuân theo cách tiếp cận dựa trên rủi ro và đưa ra khung pháp lý thống nhất, theo chiều ngang cho AI nhằm đảm bảo sự chắc chắn về mặt pháp lý. Dự thảo quy định nhằm mục đích thúc đẩy đầu tư và đổi mới trong AI, tăng cường quản trị và thực thi hiệu quả luật hiện hành về các quyền cơ bản và an toàn, đồng thời tạo điều kiện phát triển một thị trường chung cho các ứng dụng AI. Nó đi đôi với các sáng kiến ​​khác, bao gồm kế hoạch phối hợp về trí tuệ nhân tạo nhằm tăng tốc đầu tư vào AI ở châu Âu. Vào ngày 6 tháng 2022 năm 2023, Hội đồng đã đạt được thỏa thuận về cách tiếp cận chung (nhiệm vụ đàm phán) về vấn đề này và tham gia các cuộc đàm phán liên thể chế với Nghị viện Châu Âu ('bộ ba') vào giữa tháng XNUMX năm XNUMX.

Chia sẻ bài viết này:

EU Reporter đăng các bài báo từ nhiều nguồn bên ngoài khác nhau thể hiện nhiều quan điểm. Các vị trí được đảm nhận trong các bài báo này không nhất thiết phải là của Phóng viên EU.

Video nổi bật