Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Tin tức
Các chính phủ trên toàn thế giới vật lộn với các quy định để kiềm chế các mối nguy hiểm của AI
Kể từ khi trí tuệ nhân tạo AI bùng nổ trong ý thức cộng đồng với sự ra mắt của ChatGPT vào cuối năm ngoái, những lời kêu gọi điều chỉnh công nghệ để ngăn chặn nó gây ra những tác hại không đáng có đã trở thành cơn sốt trên khắp thế giới. Rủi ro rất cao — mới tuần trước, các nhà lãnh đạo công nghệ đã ký một bức thư công khai nói rằng nếu các quan chức chính phủ hiểu sai, hậu quả có thể là sự tuyệt chủng của loài người.
Trong khi hầu hết người tiêu dùng chỉ vui vẻ thử nghiệm giới hạn của các mô hình ngôn ngữ lớn như ChatGPT, một số câu chuyện đáng lo ngại đã lan truyền về công nghệ bịa đặt sự thật giả định (còn được gọi là "ảo giác") và đưa ra đề xuất không phù hợp cho người dùng, chẳng hạn như khi một Phiên bản Bing do AI cung cấp đã nói với một phóng viên của New York Times rằng hãy ly hôn với người bạn đời của mình.
Những người trong ngành công nghệ và các chuyên gia pháp lý cũng lưu ý đến một loạt các mối quan tâm khác, bao gồm khả năng AI tổng quát tăng cường các cuộc tấn công của các tác nhân đe dọa vào hệ thống phòng thủ an ninh mạng, khả năng vi phạm bản quyền và quyền riêng tư dữ liệu — vì các mô hình ngôn ngữ lớn được đào tạo trên tất cả các loại thông tin - và khả năng phân biệt đối xử khi con người mã hóa những thành kiến của chính họ thành các thuật toán.
[ Chuẩn bị cho AI sáng tạo với thử nghiệm và hướng dẫn rõ ràng ]
Có thể vấn đề đáng quan tâm nhất là các chương trình AI tổng quát về cơ bản là tự học, thể hiện khả năng ngày càng tăng khi chúng nhập dữ liệu và người tạo ra chúng không biết chính xác điều gì đang xảy ra bên trong chúng. Điều này có thể có nghĩa là, như cựu lãnh đạo Google AI Geoffrey Hinton đã nói, rằng loài người có thể chỉ là một giai đoạn đi qua trong quá trình phát triển trí thông minh và các hệ thống AI có thể phát triển các mục tiêu của riêng chúng mà con người không biết gì.
Tất cả điều này đã khiến các chính phủ trên khắp thế giới kêu gọi các quy định bảo vệ . Tuy nhiên, giống như hầu hết các quy định về công nghệ, hiếm khi có một cách tiếp cận chung cho tất cả, với các chính phủ khác nhau đang tìm cách điều chỉnh AI tổng quát theo cách phù hợp nhất với bối cảnh chính trị của chính họ.
Các quốc gia đưa ra các quy định riêng của họ
“[Khi nói đến] các vấn đề công nghệ, mặc dù mỗi quốc gia được tự do đưa ra các quy tắc của riêng mình, nhưng trong quá khứ, những gì chúng ta thấy là đã có một số hình thức hài hòa giữa Hoa Kỳ, EU và hầu hết các nước phương Tây,” Sophie nói Goossens, một đối tác tại công ty luật Reed Smith chuyên về các vấn đề AI, bản quyền và sở hữu trí tuệ. “Thật hiếm khi thấy pháp luật hoàn toàn mâu thuẫn với pháp luật của người khác.”
Mặc dù các chi tiết của luật do mỗi khu vực tài phán đưa ra có thể khác nhau, nhưng có một chủ đề bao trùm thống nhất tất cả các chính phủ đã vạch ra các đề xuất cho đến nay: làm thế nào để nhận ra lợi ích của AI trong khi giảm thiểu rủi ro mà nó gây ra cho xã hội. Thật vậy, các nhà lập pháp của EU và Hoa Kỳ đang xây dựng một bộ quy tắc ứng xử AI để thu hẹp khoảng cách cho đến khi bất kỳ luật nào được thông qua một cách hợp pháp.
AI sáng tạo là một thuật ngữ chung cho bất kỳ loại quy trình tự động nào sử dụng thuật toán để tạo, thao tác hoặc tổng hợp dữ liệu, thường ở dạng hình ảnh hoặc văn bản mà con người có thể đọc được. Nó được gọi là sáng tạo bởi vì nó tạo ra thứ gì đó chưa từng tồn tại trước đây. Nó không phải là một công nghệ mới và các cuộc trò chuyện xung quanh quy định cũng không phải là mới.
AI sáng tạo được cho là đã xuất hiện (ít nhất là ở dạng chatbot rất cơ bản) từ giữa những năm 1960, khi một giáo sư MIT tạo ra ELIZA , một ứng dụng được lập trình để sử dụng phương pháp khớp mẫu và thay thế ngôn ngữ để đưa ra các phản hồi được tạo ra để khiến người dùng cảm thấy thích. họ đang nói chuyện với một nhà trị liệu. Nhưng sự xuất hiện gần đây của AI tổng quát trong phạm vi công cộng đã cho phép những người có thể chưa từng tiếp cận với công nghệ này trước đây có thể tạo ra nội dung phức tạp về bất kỳ chủ đề nào, dựa trên một số gợi ý cơ bản.
Khi các ứng dụng AI tổng quát trở nên mạnh mẽ và phổ biến hơn, áp lực đối với quy định ngày càng tăng.
Goossens cho biết: “Rủi ro chắc chắn cao hơn vì giờ đây các công ty này đã quyết định phát hành các công cụ cực kỳ mạnh mẽ trên internet mở cho mọi người sử dụng và tôi nghĩ chắc chắn có rủi ro là công nghệ có thể bị sử dụng với mục đích xấu”
Những bước đầu tiên hướng tới luật AI Mặc dù các cuộc thảo luận của Ủy ban Châu Âu xung quanh đạo luật quản lý AI đã bắt đầu vào năm 2019, nhưng chính phủ Vương quốc Anh là một trong những bên đầu tiên công bố ý định của mình, xuất bản sách trắng vào tháng 3 năm nay nêu ra 5 nguyên tắc mà họ muốn các công ty tuân theo: an toàn, bảo mật, và sự mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; và khả năng cạnh tranh và khắc phục.
Tuy nhiên, trong nỗ lực tránh cái gọi là “luật nặng tay”, chính phủ Vương quốc Anh đã kêu gọi các cơ quan quản lý hiện hành sử dụng các quy định hiện hành để đảm bảo rằng các ứng dụng AI tuân thủ các nguyên tắc, thay vì soạn thảo luật mới. Kể từ đó, Ủy ban Châu Âu đã xuất bản dự thảo đầu tiên của Đạo luật AI , dự thảo này đã bị trì hoãn do nhu cầu bao gồm các điều khoản để điều chỉnh các ứng dụng AI mới hơn.
Dự thảo luật bao gồm các yêu cầu đối với các mô hình AI tổng quát để giảm thiểu một cách hợp lý các rủi ro có thể thấy trước đối với sức khỏe, sự an toàn, các quyền cơ bản, môi trường, nền dân chủ và pháp quyền, với sự tham gia của các chuyên gia độc lập. Luật do EU đề xuất sẽ cấm sử dụng AI khi nó có thể trở thành mối đe dọa đối với sự an toàn, sinh kế hoặc quyền của mọi người, với các quy định xung quanh việc sử dụng trí tuệ nhân tạo trở nên ít hạn chế hơn dựa trên rủi ro nhận thức được mà nó có thể gây ra cho ai đó liên hệ với nó — ví dụ: tương tác với chatbot trong cài đặt dịch vụ khách hàng sẽ được coi là rủi ro thấp.
Các hệ thống AI có rủi ro hạn chế và tối thiểu như vậy có thể được sử dụng với ít yêu cầu. Các hệ thống trí tuệ nhân tạo gây ra mức độ sai lệch hoặc rủi ro cao hơn, chẳng hạn như các hệ thống được sử dụng cho hệ thống chấm điểm xã hội và hệ thống nhận dạng sinh trắc học của chính phủ, thường sẽ không được phép, trừ một số trường hợp ngoại lệ. Tuy nhiên, ngay cả trước khi luật được hoàn thiện, ChatGPT nói riêng đã bị một số quốc gia châu Âu xem xét kỹ lưỡng vì có thể vi phạm bảo vệ dữ liệu GDPR.
Cơ quan quản lý dữ liệu của Ý ban đầu đã cấm ChatGPT do cáo buộc vi phạm quyền riêng tư liên quan đến việc thu thập và lưu trữ dữ liệu cá nhân của chatbot, nhưng đã khôi phục việc sử dụng công nghệ này sau khi OpenAI do Microsoft hậu thuẫn, người tạo ra ChatGPT, đã làm rõ chính sách quyền riêng tư của mình và khiến nó dễ truy cập hơn, và cung cấp một công cụ mới để xác minh tuổi của người dùng. Các quốc gia châu Âu khác, bao gồm Pháp và Tây Ban Nha, đã nộp đơn khiếu nại về ChatGPT tương tự như những khiếu nại do Ý ban hành, mặc dù không có quyết định nào liên quan đến những khiếu nại đó được đưa ra.
Các cách tiếp cận khác nhau đối với quy định Tất cả các quy định phản ánh chính trị, đạo đức và văn hóa của xã hội mà bạn đang ở, Martha Bennett, phó chủ tịch kiêm nhà phân tích chính của Forrester, lưu ý rằng chẳng hạn như ở Hoa Kỳ, có một sự miễn cưỡng theo bản năng để điều chỉnh trừ khi có áp lực rất lớn để làm như vậy, trong khi ở châu Âu có một nền văn hóa quy định mạnh mẽ hơn nhiều vì lợi ích chung. Bennett nói: “Không có gì sai khi có một cách tiếp cận khác, bởi vì đúng vậy, bạn không muốn kìm hãm sự đổi mới.
Đề cập đến những bình luận của chính phủ Vương quốc Anh, Bennett cho biết việc không muốn kìm hãm sự đổi mới là điều dễ hiểu, nhưng cô ấy không đồng ý với ý kiến cho rằng bằng cách chủ yếu dựa vào luật hiện hành và ít nghiêm ngặt hơn Đạo luật AI của EU, Vương quốc Anh chính phủ có thể mang lại cho quốc gia lợi thế cạnh tranh — đặc biệt nếu điều này phải trả giá bằng luật bảo vệ dữ liệu. Bà nói: “Nếu Vương quốc Anh nổi tiếng là chơi nhanh và lỏng lẻo với dữ liệu cá nhân, thì điều đó cũng không phù hợp.
Mặc dù Bennett tin rằng các cách tiếp cận lập pháp khác nhau có thể mang lại lợi ích riêng, nhưng bà lưu ý rằng các quy định về AI do chính phủ Trung Quốc thực hiện sẽ hoàn toàn không thể chấp nhận được ở Bắc Mỹ hoặc Tây Âu. Theo luật Trung Quốc, các công ty AI sẽ được yêu cầu gửi bản đánh giá bảo mật cho chính phủ trước khi tung ra công chúng các công cụ AI của họ và mọi nội dung do AI tổng quát tạo ra phải phù hợp với các giá trị xã hội chủ nghĩa cốt lõi của đất nước. Việc không tuân thủ các quy tắc sẽ dẫn đến việc các nhà cung cấp bị phạt tiền, bị đình chỉ dịch vụ hoặc đối mặt với các cuộc điều tra hình sự.
Những thách thức đối với pháp luật AI Mặc dù một số quốc gia đã bắt đầu soạn thảo các quy định về AI, nhưng những nỗ lực đó bị cản trở bởi thực tế là các nhà lập pháp liên tục phải bắt kịp các công nghệ mới, cố gắng hiểu những rủi ro và phần thưởng của chúng. “Nếu chúng ta nhắc lại hầu hết các tiến bộ công nghệ, chẳng hạn như internet hay trí tuệ nhân tạo, thì nó giống như con dao hai lưỡi, vì bạn có thể sử dụng nó cho cả mục đích hợp pháp và bất hợp pháp,” Felipe Romero Moreno, giảng viên chính của Đại học cho biết. của Trường Luật Hertfordshire có công việc tập trung vào các vấn đề pháp lý và quy định về các công nghệ mới nổi, bao gồm cả AI.
Các hệ thống AI cũng có thể vô tình gây hại, vì con người lập trình chúng có thể bị sai lệch và dữ liệu mà các chương trình được đào tạo có thể chứa thông tin sai lệch hoặc không chính xác.
Romero Moreno nói: “Chúng tôi cần trí tuệ nhân tạo đã được đào tạo với dữ liệu khách quan. “Nếu không, các quyết định do AI đưa ra sẽ không chính xác cũng như mang tính phân biệt đối xử.” Ông nói, trách nhiệm giải trình từ phía các nhà cung cấp là điều cần thiết, đồng thời tuyên bố rằng người dùng sẽ có thể thách thức kết quả của bất kỳ quyết định nào về trí tuệ nhân tạo và buộc các nhà phát triển AI phải giải thích logic hoặc cơ sở lý luận đằng sau lập luận của công nghệ.
(Một ví dụ gần đây về một trường hợp liên quan là một vụ kiện tập thể của một người đàn ông Hoa Kỳ đã bị từ chối công việc vì phần mềm video AI đánh giá anh ta là không đáng tin cậy.)
Các công ty công nghệ cần làm cho các hệ thống trí tuệ nhân tạo có thể kiểm tra được để chúng có thể chịu sự kiểm tra độc lập và bên ngoài từ các cơ quan quản lý — và người dùng phải có quyền truy đòi pháp lý để thách thức tác động của quyết định do trí tuệ nhân tạo đưa ra, với sự giám sát cuối cùng luôn được đưa ra với con người, không phải máy móc, Romero Moreno nói. Bản quyền một vấn đề lớn đối với các ứng dụng AI Một vấn đề pháp lý quan trọng khác cần được giải quyết là bản quyền.
Đạo luật AI của EU bao gồm một điều khoản khiến những người tạo ra các công cụ AI tổng quát tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để phát triển hệ thống của họ. “Bản quyền ở khắp mọi nơi, vì vậy khi bạn có một lượng dữ liệu khổng lồ ở đâu đó trên máy chủ và bạn sẽ sử dụng dữ liệu đó để đào tạo một mô hình, thì rất có thể ít nhất một số dữ liệu đó sẽ được bảo vệ bởi bản quyền, ” Goossens cho biết thêm rằng các vấn đề khó giải quyết nhất sẽ xoay quanh các bộ đào tạo mà các công cụ AI được phát triển.
Khi vấn đề này lần đầu tiên nảy sinh, các nhà lập pháp ở các quốc gia bao gồm Nhật Bản, Đài Loan và Singapore đã tạo ra một ngoại lệ đối với tài liệu có bản quyền được đưa vào trường đào tạo, tuyên bố rằng bản quyền không được cản trở tiến bộ công nghệ. Tuy nhiên, Goossens cho biết, rất nhiều trường hợp ngoại lệ bản quyền này đã gần bảy năm tuổi.
Vấn đề còn phức tạp hơn bởi thực tế là ở EU, trong khi vẫn tồn tại những trường hợp ngoại lệ tương tự, bất kỳ ai là chủ sở hữu quyền đều có thể từ chối sử dụng dữ liệu của họ trong các tập huấn luyện. Hiện tại, do không có động cơ nào để đưa dữ liệu của bạn vào, nên rất nhiều người hiện đang chọn không tham gia, có nghĩa là EU là khu vực tài phán ít được mong muốn hơn đối với các nhà cung cấp AI để hoạt động.
Ở Vương quốc Anh, một ngoại lệ hiện đang tồn tại cho mục đích nghiên cứu, nhưng kế hoạch giới thiệu một ngoại lệ bao gồm các công nghệ AI thương mại đã bị loại bỏ, trong khi chính phủ vẫn chưa công bố kế hoạch thay thế. Điều gì tiếp theo cho quy định AI? Cho đến nay, Trung Quốc là quốc gia duy nhất đã thông qua luật và tiến hành các vụ truy tố liên quan đến AI tổng hợp — vào tháng 5, chính quyền Trung Quốc đã bắt giữ một người đàn ông ở miền Bắc Trung Quốc vì cáo buộc sử dụng ChatGPT để viết các bài báo giả mạo.
Ở những nơi khác, chính phủ Vương quốc Anh đã nói rằng các cơ quan quản lý sẽ ban hành hướng dẫn thực tế cho các tổ chức, đưa ra cách thực hiện các nguyên tắc được nêu trong sách trắng của mình trong 12 tháng tới, trong khi Ủy ban EU dự kiến sẽ sớm bỏ phiếu để hoàn thiện văn bản về AI của họ.
Hành động. Để so sánh, Hoa Kỳ dường như vẫn đang trong giai đoạn tìm hiểu thực tế, mặc dù Tổng thống Joe Biden và Phó Tổng thống Kamala Harris gần đây đã gặp gỡ các giám đốc điều hành từ các công ty AI hàng đầu để thảo luận về những nguy cơ tiềm ẩn của AI.
Tháng trước, hai ủy ban của Thượng viện cũng đã gặp gỡ các chuyên gia trong ngành, bao gồm cả Giám đốc điều hành OpenAI Sam Altman. Nói chuyện với các nhà lập pháp, Altman cho biết quy định sẽ là “khôn ngoan” vì mọi người cần biết liệu họ đang nói chuyện với hệ thống AI hay đang xem nội dung — hình ảnh, video hoặc tài liệu — do chatbot tạo ra. “Tôi nghĩ chúng ta cũng sẽ cần các quy tắc và hướng dẫn về những gì được mong đợi về mặt tiết lộ thông tin từ một công ty cung cấp mô hình có thể có những loại khả năng mà chúng ta đang nói đến”
Altman nói. Đây là quan điểm mà Bennett của Forrester đồng ý, lập luận rằng mối nguy hiểm lớn nhất mà AI tạo ra cho xã hội là sự dễ dàng tạo ra thông tin sai lệch và thông tin sai lệch. “[Vấn đề này] đi đôi với việc đảm bảo rằng các nhà cung cấp các mô hình ngôn ngữ lớn và công cụ AI tổng quát này tuân thủ các quy tắc hiện hành về bản quyền, sở hữu trí tuệ, dữ liệu cá nhân, v.v. và xem xét cách chúng tôi đảm bảo các quy tắc đó thực sự được thi hành ," cô ấy nói. Romero Moreno lập luận rằng giáo dục nắm giữ chìa khóa để giải quyết khả năng tạo và truyền bá thông tin sai lệch của công nghệ, đặc biệt là trong giới trẻ hoặc những người ít hiểu biết về công nghệ.
Ông nói, các thông báo bật lên nhắc nhở người dùng rằng nội dung có thể không chính xác sẽ khuyến khích mọi người suy nghĩ chín chắn hơn về cách họ tương tác với nội dung trực tuyến. , vì chúng thường dài và phức tạp và do đó hiếm khi được đọc. Cuối cùng, Bennett nói, bất kể luật cuối cùng trông như thế nào, các cơ quan quản lý và chính phủ trên toàn thế giới cần phải hành động ngay. Nếu không, chúng ta sẽ rơi vào một tình huống mà công nghệ đã bị khai thác đến mức cực đoan đến mức chúng ta đang chiến đấu trong một trận chiến mà chúng ta không bao giờ có thể giành chiến thắng.
Nguồn: computerworld.com