Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Tin tức
Q & A: Các chuyên gia nói rằng việc ngăn chặn AI là không thể - hoặc mong muốn
Khi các công cụ AI tổng quát như ChatGPT của OpenAI và Bard của Google tiếp tục phát triển với tốc độ chóng mặt, đặt ra câu hỏi về độ tin cậy và thậm chí cả quyền con người, các chuyên gia đang cân nhắc liệu công nghệ có thể bị chậm lại và trở nên an toàn hơn hay không hoặc bằng cách nào.
Vào tháng 3, tổ chức phi lợi nhuận Future of Life Institute đã xuất bản một bức thư ngỏ kêu gọi tạm dừng sáu tháng trong quá trình phát triển ChatGPT, chatbot dựa trên AI do OpenAI do Microsoft hậu thuẫn tạo ra. Bức thư, hiện có chữ ký của hơn 31.000 người, nhấn mạnh rằng chỉ nên phát triển các hệ thống AI mạnh mẽ sau khi quản lý được rủi ro của chúng.
“Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, lỗi thời và thay thế chúng ta không? Chúng ta có nên mạo hiểm mất kiểm soát nền văn minh của mình không?” bức thư hỏi.
[ Chuẩn bị cho AI sáng tạo với thử nghiệm và hướng dẫn rõ ràng ]
Đồng sáng lập Apple Steve Wozniak và Giám đốc điều hành SpaceX và Tesla Elon Musk đã cùng hàng nghìn người ký kết khác đồng ý rằng AI gây ra “những rủi ro sâu sắc đối với xã hội và nhân loại, như đã được thể hiện qua nghiên cứu sâu rộng và được các phòng thí nghiệm AI hàng đầu thừa nhận”.
Vào tháng 5, Trung tâm An toàn AI phi lợi nhuận đã xuất bản một bức thư ngỏ tương tự tuyên bố rằng AI có nguy cơ tuyệt chủng toàn cầu ngang với đại dịch và chiến tranh hạt nhân. Những người ký vào tuyên bố đó bao gồm nhiều nhà khoa học và giám đốc điều hành AI, những người đã mang AI sáng tạo đến với công chúng.
Việc làm cũng được cho là sẽ được thay thế bằng trí tuệ nhân tạo tổng quát - rất nhiều việc làm. Vào tháng 3, Goldman Sachs đã công bố một báo cáo ước tính AI tổng quát và khả năng tự động hóa các tác vụ của nó có thể ảnh hưởng đến 300 triệu việc làm trên toàn cầu. Và vào đầu tháng 5, IBM cho biết họ sẽ tạm dừng kế hoạch tuyển dụng khoảng 7.800 vị trí và ước tính rằng gần 3/10 công việc tại văn phòng có thể bị thay thế bởi AI trong khoảng thời gian 5 năm, theo báo cáo của Bloomberg.
Trong khi các cuộc cách mạng công nghiệp trước đây đã tự động hóa các nhiệm vụ và thay thế công nhân, thì những thay đổi đó cũng tạo ra nhiều việc làm hơn là loại bỏ. Ví dụ, động cơ hơi nước cần than để hoạt động — và con người để xây dựng và bảo trì nó.
Tuy nhiên, AI sáng tạo không phải là một cuộc cách mạng công nghiệp tương đương. AI có thể tự học và nó đã tiếp thu hầu hết thông tin do con người tạo ra. Chẳng bao lâu nữa, AI sẽ bắt đầu bổ sung kiến thức của con người bằng kiến thức của chính nó.
Geoff Schaefer là trưởng bộ phận Trí tuệ nhân tạo có trách nhiệm tại Booz Allen Hamilton, một nhà thầu quân sự và chính phủ Hoa Kỳ chuyên về lĩnh vực tình báo. Susannah Shattuck là giám đốc sản phẩm tại Credo AI, một nhà cung cấp SaaS quản trị AI.
Computerworld gần đây đã nói chuyện với Schaefer và Shattuck về tương lai của AI và tác động của nó đối với công việc và xã hội nói chung. Sau đây là những đoạn trích từ cuộc phỏng vấn đó.
AI tạo ra những rủi ro gì? Shattuck: “Xu hướng thuật toán. Đây là những hệ thống đưa ra dự đoán dựa trên các mẫu trong dữ liệu mà chúng đã được đào tạo. Và như tất cả chúng ta đều biết, chúng ta đang sống trong một thế giới thiên vị. Dữ liệu mà chúng tôi đang đào tạo các hệ thống này thường bị sai lệch và nếu chúng tôi không cẩn thận và suy nghĩ kỹ về cách chúng tôi đang dạy hoặc đào tạo các hệ thống này để nhận dạng các mẫu trong dữ liệu, chúng tôi có thể vô tình dạy chúng hoặc huấn luyện chúng thực hiện dự đoán sai lệch.
“Khả năng giải thích. Rất nhiều mô hình [ngôn ngữ lớn] phức tạp hơn mà chúng ta có thể xây dựng ngày nay khá mờ nhạt đối với chúng ta. Chúng tôi không hoàn toàn hiểu chính xác cách họ đưa ra dự đoán. Và vì vậy, khi bạn đang hoạt động trong một môi trường ra quyết định có độ tin cậy cao hoặc rất nhạy cảm, việc tin tưởng vào một hệ thống AI có quy trình ra quyết định mà bạn không hiểu đầy đủ có thể là một thách thức. Và đó là lý do tại sao chúng ta đang thấy các quy định ngày càng tăng tập trung vào tính minh bạch của các hệ thống AI.
“Tôi sẽ cho bạn một ví dụ rất cụ thể: Nếu tôi sắp triển khai một hệ thống AI trong một tình huống chăm sóc sức khỏe y tế, trong đó tôi sẽ yêu cầu hệ thống đó đưa ra một số khuyến nghị nhất định cho bác sĩ dựa trên dữ liệu bệnh nhân, thì khả năng giải thích là sẽ thực sự quan trọng để bác sĩ đó sẵn sàng tin tưởng vào hệ thống.
“Điều cuối cùng tôi muốn nói là rủi ro AI liên tục phát triển khi công nghệ phát triển. Và [có một] nhóm rủi ro AI đang nổi lên mà trước đây chúng ta chưa thực sự phải đối mặt — ví dụ như rủi ro ảo giác. Các hệ thống AI tổng hợp này có thể thực hiện một công việc rất thuyết phục là tạo ra thông tin trông như thật, nhưng điều đó hoàn toàn không dựa trên thực tế.”
Mặc dù chúng tôi không thể dự đoán tất cả các rủi ro trong tương lai, nhưng bạn tin rằng điều gì có khả năng xảy ra nhất? Schaefer: "Những hệ thống này không được gán cho khả năng làm tất cả những việc mà chúng hiện có thể làm. Chúng tôi không lập trình GPT-4 để viết chương trình máy tính nhưng nó có thể làm được điều đó, đặc biệt khi được kết hợp với các khả năng khác như trình thông dịch mã và các chương trình cũng như phần bổ trợ khác . Điều đó thật thú vị và hơi khó khăn. Chúng tôi đang cố gắng nắm bắt được hồ sơ rủi ro của các hệ thống này. Hồ sơ rủi ro đang phát triển theo đúng nghĩa đen hàng ngày.
“Điều đó không có nghĩa là tất cả đều là rủi ro ròng. Cũng có những lợi ích ròng, bao gồm cả không gian an toàn. Tôi nghĩ [Công ty nghiên cứu an toàn AI] Anthropic là một ví dụ thực sự thú vị về điều đó, nơi họ đang thực hiện một số công việc thử nghiệm an toàn thực sự thú vị khi họ yêu cầu một mô hình ít sai lệch hơn và ở một kích thước nhất định, họ thấy rằng nó sẽ tạo ra đầu ra theo đúng nghĩa đen ít thiên vị hơn chỉ bằng cách hỏi nó. Vì vậy, tôi nghĩ rằng chúng ta cần xem xét cách chúng ta có thể tận dụng một số khả năng mới nổi đó để quản lý rủi ro của chính các hệ thống này cũng như rủi ro của những gì mới thực sự từ những khả năng mới nổi này.”
Vì vậy, chúng tôi chỉ yêu cầu nó trở nên đẹp hơn? Schaefer: "Vâng, theo đúng nghĩa đen." Các hệ thống này đang trở nên thông minh hơn theo cấp số nhân trong thời gian ngắn và chúng sẽ phát triển với tốc độ nhanh hơn. Chúng ta thậm chí có thể kiềm chế chúng vào thời điểm này không? Schaefer: “Tôi là một người lạc quan về AI. Tôi nghĩ, kiềm chế nó là điều không thể và cũng không mong muốn. Từ quan điểm đạo đức AI, tôi nghĩ về điều này rất nhiều. Đạo đức là gì? mỏ neo là gì? La bàn đạo đức của chúng ta đối với lĩnh vực nghiên cứu này là gì, v.v. Và tôi chuyển sang các nhà triết học cổ điển, và về cơ bản họ không quan tâm đến đúng và sai, theo cách chúng ta thường quan niệm về đạo đức. Về cơ bản, họ quan tâm đến ý nghĩa của việc sống một cuộc sống tốt đẹp.... Aristotle gọi đây là Eudaimonia, có nghĩa là hạnh phúc của con người, sự hưng thịnh của con người, một kiểu kết hợp độc đáo nào đó của hai điều đó.
“Và tôi nghĩ nếu bây giờ chúng ta áp dụng… lăng kính đó cho các hệ thống AI, thì những gì chúng ta coi là đạo đức và trách nhiệm sẽ trông hoàn toàn khác. Vì vậy, các hệ thống AI tạo ra nhiều hạnh phúc và thịnh vượng nhất cho con người, tôi nghĩ chúng ta nên xem xét có trách nhiệm và đạo đức. Và tôi nghĩ một ví dụ chính về điều đó là hệ thống AlphaFold của [Google] DeepMind . Bạn có thể đã quen thuộc với mô hình này, nó đã giải quyết được thách thức lớn trong sinh học về giải mã các nếp gấp của protein, thứ sẽ thay đổi nền y học hiện đại, ở đây và trong tương lai. Nếu điều đó mang lại kết quả lớn cho bệnh nhân, thì điều đó tương đương với sự hưng thịnh của con người.
"Vì vậy, tôi nghĩ rằng chúng ta nên tập trung nhiều vào cách các hệ thống AI mạnh mẽ này có thể được sử dụng để thúc đẩy khoa học theo những cách mà trước đây chúng ta không thể thực hiện được. Từ việc cải thiện các dịch vụ mà công dân trải nghiệm hàng ngày, mọi thứ từ nhàm chán như bưu chính dịch vụ thú vị như những gì NOAA đang làm trong lĩnh vực biến đổi khí hậu.
“Vì vậy, trên mạng, tôi ít lo lắng hơn là sợ hãi.”
Shattuck: “Tôi cũng là một người lạc quan. [Nhưng] Tôi nghĩ rằng yếu tố con người luôn là một nguồn rủi ro lớn đối với các công nghệ cực kỳ mạnh mẽ. Khi tôi nghĩ về những gì thực sự biến đổi về AI tổng quát, tôi nghĩ một trong những điều biến đổi nhất là giao diện để hệ thống AI làm điều gì đó cho bạn giờ đây là một giao diện văn bản chung của con người. Trong khi trước đây, hệ thống AI là thứ mà bạn cần biết cách viết mã để xây dựng đúng và hướng dẫn để chúng làm mọi việc cho bạn. Bây giờ, theo đúng nghĩa đen, bất kỳ ai có thể nhập, nhắn tin [hoặc] nói văn bản và có thể tương tác với một hệ thống AI rất mạnh và nhờ hệ thống này làm điều gì đó cho họ, và tôi nghĩ điều đó có tiềm năng đáng kinh ngạc.
“Tôi cũng là một người lạc quan về nhiều mặt, nhưng [giao diện đơn giản đó] cũng có nghĩa là rào cản gia nhập đối với những kẻ xấu là cực kỳ thấp. Điều đó có nghĩa là rào cản đối với việc sử dụng sai các hệ thống này là rất thấp. Vì vậy, tôi nghĩ rằng điều đó làm cho việc xác định các lan can bảo vệ sẽ ngăn chặn việc sử dụng hoặc lạm dụng các hệ thống này một cách cố ý và vô tình trở nên quan trọng hơn.”
Trí tuệ nhân tạo AI sẽ tác động đến công việc như thế nào? Điều này sẽ giống như các cuộc cách mạng công nghiệp trước đây đã loại bỏ nhiều công việc thông qua tự động hóa nhưng lại tạo ra các công việc mới thông qua các vị trí có kỹ năng? Schaefer: “Tôi khá coi trọng phân tích từ những người như Goldman Sachs - [AI] tác động đến hơn 300 triệu việc làm theo một cách nào đó, ở một mức độ nào đó. Tôi nghĩ điều đó đúng. Vấn đề chỉ là tác động đó thực sự trông như thế nào và làm thế nào chúng ta có thể chuyển đổi và nâng cấp. Tôi nghĩ bồi thẩm đoàn vẫn chưa đồng ý về điều đó. Đó là điều chúng ta cần lập kế hoạch ngay bây giờ thay vì cho rằng điều này sẽ giống như bất kỳ quá trình chuyển đổi công nghệ nào trước đây ở chỗ nó sẽ tạo ra việc làm mới. Tôi không biết điều đó được đảm bảo.
“Điều này mới ở chỗ những công việc mà nó sẽ tác động thuộc loại hình kinh tế xã hội khác, trên phạm vi rộng hơn và có tác động GDP cao hơn, nếu bạn muốn. Và thẳng thắn mà nói, điều này sẽ dịch chuyển thị trường, dịch chuyển các ngành công nghiệp và dịch chuyển toàn bộ ngành giáo dục theo những cách mà cuộc cách mạng công nghiệp trước đây không làm được. Và vì vậy, tôi nghĩ rằng đây là một kiểu thay đổi khác về cơ bản.”
Shattuck: “Chủ cũ của tôi [IBM] nói rằng họ sẽ không thuê [hàng nghìn] kỹ sư, những kỹ sư phần mềm mà ban đầu họ dự định thuê. Họ đã đưa ra… tuyên bố rằng các hệ thống AI này về cơ bản cho phép họ có được cùng một loại đầu ra [với ít kỹ sư phần mềm hơn]. Và nếu bạn đã sử dụng bất kỳ công cụ nào trong số này để tạo mã, thì tôi nghĩ đó có thể là ví dụ hoàn hảo về cách mà các hệ thống này có thể tăng cường con người [và có thể] thực sự thay đổi đáng kể số lượng người mà bạn cần để xây dựng phần mềm.
“Sau đó, một ví dụ khác hiện đang diễn ra ngay bây giờ, là có một cuộc đình công của các nhà văn ngay tại Hollywood. Và tôi biết rằng một trong những vấn đề đang được thảo luận ngay bây giờ, một trong những lý do khiến các nhà văn nổi bật, là họ lo lắng rằng ChatGPT [và các hệ thống AI tổng quát khác] sẽ ngày càng được sử dụng nhiều hơn để thay thế các nhà văn. Và vì vậy, một trong những vấn đề lao động đang được bàn thảo hiện nay là số lượng tối thiểu các nhà văn, bạn biết đấy, các nhà văn con người phải được chỉ định làm việc trong một chương trình hoặc một bộ phim. Và vì vậy tôi nghĩ rằng đây là những vấn đề lao động rất thực tế hiện đang diễn ra.
“Quy định nào cuối cùng được thông qua để bảo vệ người lao động? Tôi thực sự nghĩ rằng chúng ta sẽ ngày càng thấy rằng có sự căng thẳng giữa người lao động và quyền của họ và thực sự là mức tăng năng suất đáng kinh ngạc mà chúng ta nhận được từ những công cụ này.”
Hãy nói về nguồn gốc. Các hệ thống AI sáng tạo có thể dễ dàng đánh cắp IP và các tác phẩm có bản quyền vì hiện tại không có phương pháp tiêu chuẩn hóa, tự động nào để phát hiện những gì do AI tạo ra và những gì do con người tạo ra. Làm thế nào để chúng tôi bảo vệ các tác phẩm gốc của quyền tác giả? Shattuck: "Chúng tôi đã suy nghĩ rất nhiều về vấn đề này tại Credo vì đây là rủi ro hàng đầu đối với khách hàng của chúng tôi và bạn biết rằng họ đang tìm giải pháp để giải quyết vấn đề đó. Tôi nghĩ rằng có một vài điều chúng ta có thể làm. Có một vài nơi để can thiệp ngay vào quy trình làm việc của AI, nếu bạn muốn. Một nơi để can thiệp là ngay tại điểm mà hệ thống AI tạo ra đầu ra. Nếu bạn có thể kiểm tra kết quả đầu ra của hệ thống AI một cách hiệu quả so với thế giới tài liệu có bản quyền, xem có trùng khớp hay không, thì bạn có thể chặn hiệu quả các kết quả đầu ra AI tổng quát vi phạm bản quyền của người khác.
“Vì vậy, một ví dụ sẽ là, nếu bạn đang sử dụng hệ thống AI tổng quát để tạo hình ảnh và hệ thống đó tạo ra hình ảnh chứa hình ảnh có thể bị tranh chấp bản quyền nhiều nhất trên thế giới — tai chuột Mickey — bạn muốn tự động chặn đầu ra đó vì bạn không muốn Disney đến với bạn nếu bạn vô tình sử dụng đầu ra đó ở đâu đó trên trang web hoặc trong tài liệu tiếp thị của mình. Vì vậy, việc có thể chặn các kết quả đầu ra dựa trên việc phát hiện ra rằng chúng đã vi phạm bản quyền hiện có là một biện pháp bảo vệ mà bạn có thể áp dụng và đây có lẽ là cách dễ thực hiện nhất đối với mã.
“Sau đó, có một mức độ can thiệp khác, mà tôi nghĩ là có liên quan đến thủy vân, đó là cách chúng tôi giúp con người đưa ra quyết định về nội dung được tạo ra để sử dụng hay không. Và do đó, có thể hiểu rằng một hệ thống AI tạo ra một phần nội dung một cách đáng tin cậy, thông qua đánh dấu bằng nước, chắc chắn là một cách để thực hiện điều đó. Tôi nghĩ nói chung, việc cung cấp cho con người các công cụ để đánh giá tốt hơn các kết quả đầu ra của AI tổng quát trước nhiều rủi ro khác nhau sẽ thực sự quan trọng để trao quyền cho con người có thể tự tin sử dụng AI tổng quát trong nhiều tình huống khác nhau.”
Schaefer: “Tôi nghĩ rằng có một câu hỏi triết học lớn hơn mà xã hội sẽ phải đối mặt ở đây, đó là về cơ bản IP có ý nghĩa gì trong thời đại AI? Vì vậy, ví dụ, trường hợp tôi đã sử dụng về cơ bản là thế này: Bản thân tôi là một nghệ sĩ. Bạn biết đấy, một số bức tranh của tôi trông giống của [Jean-Michel] Basquiat. Tôi nghĩ rằng không có sự khác biệt về chức năng giữa việc tôi xem tất cả các bức tranh của Basquiat và để điều đó cung cấp thông tin, truyền cảm hứng hoặc ảnh hưởng đến phong cách của tôi, và sau đó AI nhìn thấy tất cả các tác phẩm của anh ấy trong tranh và tạo ra hình ảnh của riêng nó. Bạn biết đấy, nghệ thuật trông giống nhau. Và điều đó ngay lập tức có nghĩa là chúng ta có một câu hỏi lớn trong toàn xã hội về những gì chúng ta thực sự bảo vệ và cách chúng ta bảo vệ nó. Và nếu điều đó không thực sự kích hoạt vi phạm IP thì sao? Điều đó có nghĩa là chúng tôi có một cách mới để tạo ra nghệ thuật có thể được nhân rộng....
“Phần lớn sản lượng văn hóa của chúng tôi có thể được tạo ra bằng cách lật các bit chứ không phải trải nghiệm của con người, và điều đó có thể hoàn toàn hợp pháp. Và vì vậy, tôi nghĩ lại, làm thế nào để chúng ta định hình lại IP và xác định những gì chúng ta muốn bảo vệ và tại sao? Điều này có ý nghĩa gì đối với các nghệ sĩ và sinh kế của họ, và điều này có ý nghĩa gì đối với những người bình thường thực sự quan tâm đến việc thể hiện nghệ thuật và hiện có công cụ này để giúp họ làm điều đó theo một cách khác và tốt hơn?”
Vào tháng 3, Viện Tương lai của Cuộc sống đã đưa ra bức thư ngỏ yêu cầu Open AI tạm dừng phát triển ChatGPT vì họ cho rằng nó vượt quá tầm kiểm soát. Bạn có đồng ý không? OpenAI có nên tạm dừng phát triển ChatGPT không? Shattuck: “ Chúng tôi đã thảo luận rất nhiều về vấn đề này tại Credo và cuối cùng chúng tôi đồng ý rằng chúng tôi không tin rằng việc tạm dừng là khả thi. Ngay cả khi Open AI đồng ý tạm dừng, chắc chắn có những tác nhân khác trên thế giới sẽ không tạm dừng. Và do đó, tạm dừng, mặc dù chúng tôi đồng ý với tinh thần và tình cảm lo ngại về những rủi ro thực sự của các hệ thống này và cách chúng tôi đang chạy đua về năng lực công nghệ…, chúng tôi không tin rằng tạm dừng là câu trả lời đúng.
“Có rất nhiều khuyến nghị thực sự tuyệt vời khác trong bức thư đó mà tôi rất tiếc là đã bị lu mờ bởi thực tế là chúng chủ yếu kêu gọi tạm dừng. Ví dụ, watermarking của đầu ra AI là một trong những khuyến nghị rất cụ thể trong bức thư đó.”
Schaefer: “Chúng tôi nghĩ rằng tạm dừng không phải là lối tắt để đến nơi an toàn. Trong thực tế, điều ngược lại có lẽ là trường hợp. Với những khả năng mới nổi này của các hệ thống AI tổng quát, [nó] cũng có nghĩa là các khả năng an toàn mới nổi. Và vì vậy, ngoài việc yêu cầu GPT-4 ít thiên vị hơn…, còn có các rào cản bảo vệ an toàn tiềm năng khác mà chúng ta có thể vấp phải khi tương tác tối đa với các hệ thống này. Và vì vậy, khi một hành vi mới xuất hiện xảy ra, một rủi ro mới được tạo ra. Cách duy nhất để thực sự hiểu điều đó và những rủi ro đó biểu hiện như thế nào, theo cách nào thông qua vectơ nào trong điều kiện nào, là tương tác với các hệ thống.
Shattuck: “Tôi nghĩ rằng tiến bộ trong không gian AI thường là một chức năng theo từng bước chứ không phải là một đường cong liên tục. Bài báo đã thúc đẩy cuộc cách mạng AI sáng tạo này thành hiện thực có tên là Tất cả những gì bạn cần là sự chú ý . Nó được xuất bản vào năm 2019 bởi một số Nhà nghiên cứu của Google. Chúng tôi vẫn đang đi theo chiều gió của các phương pháp được đề xuất trong bài báo đó. Ai biết được khi nào bài báo tiếp theo sẽ được xuất bản bởi các nhà nghiên cứu đã khám phá ra một cách tiếp cận khác.
“Có nhiều thứ khác nhau mà chúng ta có thể điều chỉnh hoặc thay đổi về cách chúng ta thiết kế, xây dựng và đào tạo các hệ thống này để có thể mang lại lợi ích to lớn. Tôi nghi ngờ rằng câu trả lời là để các hệ thống này ngày càng lớn hơn với ngày càng nhiều dữ liệu. Tôi nghĩ rằng sẽ có những cách tiếp cận mới sẽ thay đổi hoàn toàn cách chúng ta có thể xây dựng và huấn luyện các hệ thống này, có thể với ít dữ liệu hơn nhiều.”
Nguồn: www.computerworld.com
Tác Giả: Lucas Mearian