Những rủi ro của AI là có thật nhưng có thể quản lý được
Thế giới đã học được nhiều điều về cách xử lý các vấn đề do đổi mới mang tính đột phá gây ra.
Bài viết của Bill Gates. Nguồn: The risks of AI are real but manageable.
Những rủi ro do trí tuệ nhân tạo tạo ra có vẻ quá lớn. Điều gì xảy ra với những người mất việc vì một cỗ máy thông minh? AI có thể ảnh hưởng đến kết quả của một cuộc bầu cử? Điều gì sẽ xảy ra nếu AI trong tương lai quyết định rằng nó không cần con người nữa và muốn loại bỏ chúng ta?
Đây đều là những câu hỏi công bằng và những lo ngại mà chúng nêu ra cần phải được xem xét một cách nghiêm túc. Nhưng có lý do chính đáng để nghĩ rằng chúng ta có thể giải quyết chúng: Đây không phải là lần đầu tiên một cải tiến lớn đưa ra những mối đe dọa mới cần phải kiểm soát. Chúng tôi đã làm điều đó trước đây.
Cho dù đó là sự ra đời của ô tô hay sự trỗi dậy của máy tính cá nhân và Internet, con người đã vượt qua được những khoảnh khắc biến đổi khác và mặc dù có nhiều sóng gió nhưng cuối cùng họ vẫn sống tốt hơn. Ngay sau khi những chiếc ô tô đầu tiên chạy trên đường, đã xảy ra vụ tai nạn ô tô đầu tiên. Nhưng chúng ta không cấm ô tô - chúng ta đã áp dụng giới hạn tốc độ, tiêu chuẩn an toàn, yêu cầu cấp phép, luật lái xe khi say rượu và các quy tắc giao thông khác.
Hiện chúng ta đang ở giai đoạn sớm nhất của một sự thay đổi sâu sắc khác, Thời đại AI. Nó tương tự như những thời điểm bất ổn trước giới hạn tốc độ và thắt dây an toàn. AI đang thay đổi nhanh đến mức không rõ chính xác điều gì sẽ xảy ra tiếp theo. Chúng ta đang phải đối mặt với những câu hỏi lớn được đặt ra về cách thức hoạt động của công nghệ hiện tại, cách mọi người sử dụng nó cho mục đích xấu và cách AI sẽ thay đổi chúng ta với tư cách là xã hội và cá nhân.
Trong khoảnh khắc như thế này, việc cảm thấy bất an là điều tự nhiên. Nhưng lịch sử cho thấy có thể giải quyết được những thách thức do công nghệ mới tạo ra.
Tôi đã viết trước đây về việc AI sẽ cách mạng hóa cuộc sống của chúng ta như thế nào. Nó sẽ giúp giải quyết các vấn đề – về sức khỏe, giáo dục, biến đổi khí hậu, v.v. Toàn là những vấn đề khó giải quyết. Quỹ Gates đang ưu tiên cho các vấn đề đó và Giám đốc điều hành của chúng tôi, Mark Suzman, gần đây đã chia sẻ suy nghĩ của ông về vai trò của tổ chức này trong việc giảm thiểu sự bất bình đẳng.
Tôi sẽ còn nhiều điều để nói trong tương lai về lợi ích của AI, nhưng trong bài viết này, tôi muốn ghi nhận những mối quan ngại mà tôi nghe và đọc thường xuyên nhất, nhiều trong số đó tôi chia sẻ và giải thích cách tôi nghĩ về chúng.
Một điều rõ ràng cho đến nay về những rủi ro của AI là không ai có tất cả các câu trả lời. Một điều nữa tôi thấy rõ ràng là tương lai của AI không nghiệt ngã như một số người nghĩ hay màu hồng như những người khác nghĩ. Rủi ro là có thật nhưng tôi lạc quan rằng chúng có thể được quản lý. Khi đi qua từng mối quan tâm, tôi sẽ quay lại một số chủ đề:
Nhiều vấn đề do AI gây ra đã có tiền lệ trong lịch sử. Ví dụ, nó sẽ có tác động lớn đến giáo dục, nhưng máy tính cầm tay cũng vậy cách đây vài thập kỷ và gần đây hơn là cho phép sử dụng máy tính trong lớp học. Chúng ta có thể học hỏi từ những gì đã làm trong quá khứ.
Nhiều vấn đề do AI gây ra cũng có thể được giải quyết với sự trợ giúp của AI.
Chúng ta sẽ cần điều chỉnh các luật cũ và áp dụng các luật mới - cũng giống như các luật chống gian lận hiện hành phải được điều chỉnh cho phù hợp với thế giới trực tuyến.
Trong bài đăng này, tôi sẽ tập trung vào những rủi ro đã hiện hữu hoặc sẽ sớm xảy ra. Tôi sẽ không đề cập đến những gì sẽ xảy ra khi loài người phát triển được một siêu AI có thể làm bất cứ nhiệm vụ nào. Cho dù chúng ta có đạt đến điều đó trong một thập kỷ hay một thế kỷ nữa hay không, xã hội sẽ cần phải đặt ra những câu hỏi sâu sắc. Điều gì sẽ xảy ra nếu một siêu AI thiết lập mục tiêu riêng cho mình? Điều gì sẽ xảy ra nếu chúng xung đột với nhân loại? Chúng ta có nên tạo ra một siêu AI không?
Nhưng việc nghĩ đến những rủi ro dài hạn này không nên làm ảnh hưởng đến những rủi ro trước mắt.
Deepfake và thông tin sai lệch do AI tạo ra có thể làm suy yếu các cuộc bầu cử và nền dân chủ.
Ý tưởng cho rằng công nghệ có thể được sử dụng để truyền bá những lời dối trá và sai sự thật không phải là mới. Mọi người đã làm điều đó với sách và tờ rơi trong nhiều thế kỷ. Mọi việc trở nên dễ dàng hơn nhiều với sự ra đời của máy xử lý văn bản, máy in laser, email và mạng xã hội.
AI giải quyết vấn đề văn bản giả mạo này và mở rộng nó, cho phép hầu như bất kỳ ai cũng có thể tạo ra âm thanh và video giả mạo, được gọi là deepfake. Nếu bạn nhận được tin nhắn thoại có âm thanh giống như con bạn nói rằng “Con đã bị bắt cóc, vui lòng gửi 1.000 USD vào tài khoản ngân hàng này trong vòng 10 phút tới và đừng gọi cảnh sát,” điều đó sẽ có tác động tinh thần khủng khiếp đến mức nào. ngoài tác dụng của một email có nội dung tương tự.
Ở quy mô lớn hơn, các tác phẩm deepfake do AI tạo ra có thể được sử dụng để cố gắng làm nghiêng lệch một cuộc bầu cử. Tất nhiên, không cần đến công nghệ phức tạp để gieo rắc nghi ngờ về người chiến thắng hợp pháp trong một cuộc bầu cử, nhưng AI sẽ làm điều đó dễ dàng hơn.
Hiện đã có những video giả mạo có cảnh bịa đặt về các chính trị gia nổi tiếng. Hãy tưởng tượng vào buổi sáng của một cuộc bầu cử lớn, một đoạn video quay cảnh một trong những ứng cử viên cướp ngân hàng được lan truyền rộng rãi. Đó là giả, nhưng các cơ quan báo chí và chiến dịch phải mất vài giờ mới chứng minh được điều đó. Có bao nhiêu người sẽ nhìn thấy nó và thay đổi phiếu bầu của họ vào phút cuối? Nó có thể làm nghiêng cán cân, đặc biệt là trong một cuộc bầu cử sát sao.
Khi người đồng sáng lập OpenAI Sam Altman làm chứng trước ủy ban Thượng viện Hoa Kỳ gần đây, các Thượng nghị sĩ của cả hai đảng đều tập trung vào tác động của AI đối với các cuộc bầu cử và nền dân chủ. Tôi hy vọng chủ đề này tiếp tục được đưa lên chương trình nghị sự của mọi người.
Chúng tôi chắc chắn chưa giải quyết được vấn đề thông tin sai lệch và tin giả sâu sắc. Nhưng có hai điều khiến tôi lạc quan một cách thận trọng. Một là mọi người có khả năng học cách không coi mọi thứ theo giá trị bề ngoài. Trong nhiều năm, người dùng email đã rơi vào bẫy lừa đảo khi ai đó đóng giả hoàng tử Nigeria hứa sẽ trả một khoản tiền lớn để đổi lấy việc chia sẻ số thẻ tín dụng của bạn. Nhưng cuối cùng, hầu hết mọi người đều học được cách xem kỹ những email đó. Khi các trò lừa đảo ngày càng tinh vi hơn, nhiều mục tiêu của chúng cũng phức tạp hơn. Chúng ta sẽ cần xây dựng nền tảng tương tự cho deepfake.
Một điều khác khiến tôi hy vọng là AI có thể giúp xác định các deepfake. Ví dụ, Intel đã phát triển một máy dò deepfake và cơ quan chính phủ DARPA đang nghiên cứu công nghệ để xác định xem video hoặc âm thanh có bị chỉnh sửa hay không.
Đây sẽ là một quá trình mang tính chu kỳ: Ai đó tìm cách phát hiện hành vi giả mạo, người khác tìm ra cách chống lại nó, người khác phát triển các biện pháp đối phó, v.v. Nó sẽ không phải là một thành công hoàn hảo, nhưng chúng ta cũng sẽ không bất lực.
AI giúp việc phát động các cuộc tấn công vào người dân và chính phủ trở nên dễ dàng hơn.
Ngày nay, khi tin tặc muốn tìm ra những lỗ hổng có thể khai thác được trong phần mềm, họ sẽ làm điều đó bằng cách dùng vũ lực—viết mã nhằm loại bỏ những điểm yếu tiềm ẩn cho đến khi tìm ra đường vào. Việc này đòi hỏi phải đi vào rất nhiều ngõ cụt, nghĩa là phải mất thời gian và công sức. tính kiên nhẫn.
Các chuyên gia bảo mật muốn chống lại hacker cũng phải làm điều tương tự. Mỗi bản vá phần mềm bạn cài đặt trên điện thoại hoặc máy tính xách tay của mình đều tiêu tốn hàng giờ tìm kiếm của những người có mục đích tốt và xấu.
Các mô hình AI sẽ đẩy nhanh quá trình này bằng cách giúp tin tặc viết mã hiệu quả hơn. Họ cũng sẽ có thể sử dụng thông tin công khai về các cá nhân, như nơi họ làm việc và bạn bè của họ là ai, để phát triển các cuộc tấn công lừa đảo phức tạp hơn những cuộc tấn công mà chúng ta thấy ngày nay.
AI có thể được sử dụng cho mục đích tốt cũng như mục đích xấu. Các nhóm bảo mật của chính phủ và khu vực tư nhân cần có những công cụ mới nhất để tìm và sửa các lỗi bảo mật trước khi bọn tội phạm có thể lợi dụng chúng. Tôi hy vọng ngành bảo mật phần mềm sẽ mở rộng công việc họ đang làm trên mặt trận này - đó phải là mối quan tâm hàng đầu của họ.
Đây cũng là lý do tại sao chúng ta không nên cố gắng tạm thời ngăn cản mọi người thực hiện những phát triển mới trong AI, như một số người đã đề xuất. Tội phạm mạng sẽ không ngừng tạo ra các công cụ mới. Những người muốn sử dụng AI để thiết kế vũ khí hạt nhân và các cuộc tấn công khủng bố sinh học cũng vậy. Nỗ lực ngăn chặn chúng cần được tiếp tục với tốc độ tương tự.
Có một rủi ro liên quan ở cấp độ toàn cầu: một cuộc chạy đua vũ trang về AI có thể được sử dụng để thiết kế và tiến hành các cuộc tấn công mạng chống lại các quốc gia khác. Mọi chính phủ đều muốn có công nghệ mạnh nhất để có thể ngăn chặn các cuộc tấn công từ đối thủ. Khuyến khích không để bất kỳ ai vượt lên trước có thể châm ngòi cho một cuộc chạy đua tạo ra vũ khí mạng ngày càng nguy hiểm. Mọi người sẽ trở nên tồi tệ hơn.
Đó là một suy nghĩ đáng sợ, nhưng chúng ta có lịch sử để hướng dẫn mình. Mặc dù chế độ không phổ biến vũ khí hạt nhân của thế giới có những sai sót, nhưng nó đã ngăn chặn được cuộc chiến tranh hạt nhân tổng lực mà thế hệ tôi rất sợ hãi khi chúng tôi lớn lên. Các chính phủ nên xem xét việc thành lập một cơ quan toàn cầu về AI tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế .
AI sẽ lấy đi việc làm của con người
Trong vài năm tới, tác động chính của AI tới công việc sẽ là giúp mọi người thực hiện công việc hiệu quả hơn. Điều đó sẽ đúng cho dù họ làm việc trong nhà máy hay văn phòng xử lý các cuộc gọi bán hàng và tài khoản phải trả. Cuối cùng, AI sẽ đủ giỏi trong việc thể hiện ý tưởng để có thể viết email và quản lý hộp thư đến cho bạn. Bạn sẽ có thể viết yêu cầu bằng tiếng Anh đơn giản hoặc bất kỳ ngôn ngữ nào khác và tạo ra bản trình bày phong phú về tác phẩm của mình.
Như tôi đã lập luận trong bài đăng trước, sẽ tốt cho xã hội khi năng suất tăng lên. Nó giúp mọi người có nhiều thời gian hơn để làm những việc khác, ở nơi làm việc và ở nhà. Và nhu cầu về những người giúp đỡ người khác - chẳng hạn như giảng dạy, chăm sóc bệnh nhân và hỗ trợ người già - sẽ không bao giờ mất đi. Nhưng sự thật là một số công nhân sẽ cần được hỗ trợ và đào tạo lại khi chúng ta thực hiện quá trình chuyển đổi sang nơi làm việc được hỗ trợ bởi AI. Đó là vai trò của các chính phủ và doanh nghiệp, và họ sẽ cần quản lý tốt vai trò này để người lao động không bị bỏ lại phía sau - nhằm tránh tình trạng gián đoạn cuộc sống của người dân đã xảy ra trong thời kỳ suy giảm việc làm trong lĩnh vực sản xuất ở Hoa Kỳ.
Ngoài ra, hãy nhớ rằng đây không phải là lần đầu tiên một công nghệ mới gây ra sự thay đổi lớn trên thị trường lao động. Tôi không nghĩ tác động của AI sẽ mạnh mẽ như Cách mạng Công nghiệp, nhưng chắc chắn nó sẽ lớn như sự ra đời của PC. Các ứng dụng xử lý văn bản không loại bỏ được công việc văn phòng mà chúng đã thay đổi nó mãi mãi. Người sử dụng lao động và nhân viên phải thích nghi, và họ đã làm được. Sự thay đổi do AI gây ra sẽ là một quá trình chuyển đổi gập ghềnh, nhưng có mọi lý do để tin rằng chúng ta có thể giảm thiểu sự gián đoạn đối với cuộc sống và sinh kế của con người.
AI kế thừa những thành kiến của chúng ta và tạo nên mọi thứ.
Ảo giác - thuật ngữ chỉ khi AI tự tin đưa ra một số tuyên bố đơn giản là không đúng - thường xảy ra do máy không hiểu ngữ cảnh cho yêu cầu của bạn. Yêu cầu AI viết một câu chuyện ngắn về chuyến du lịch lên mặt trăng và nó có thể cho bạn một câu trả lời rất giàu trí tưởng tượng. Nhưng hãy yêu cầu nó giúp bạn lên kế hoạch cho chuyến đi đến Tanzania và nó có thể cố gắng đưa bạn đến một khách sạn không tồn tại.
Một rủi ro khác với trí tuệ nhân tạo là nó phản ánh hoặc thậm chí làm trầm trọng thêm những thành kiến hiện có đối với những người thuộc các giới tính, chủng tộc, sắc tộc nhất định, v.v.
Để hiểu tại sao ảo giác và thành kiến lại xảy ra, điều quan trọng là phải biết cách hoạt động của các mô hình AI phổ biến nhất hiện nay. Về cơ bản, chúng là những phiên bản mã rất phức tạp cho phép ứng dụng email của bạn dự đoán từ tiếp theo bạn sắp nhập: Chúng quét một lượng lớn văn bản - gần như mọi thứ có sẵn trực tuyến, trong một số trường hợp - và phân tích nó để tìm ra các mẫu trong đó. ngôn ngữ của con người.
Khi bạn đặt câu hỏi cho AI, nó sẽ xem xét các từ bạn đã sử dụng và sau đó tìm kiếm các đoạn văn bản thường liên quan đến những từ đó. Nếu bạn viết “liệt kê các nguyên liệu làm bánh kếp”, bạn có thể nhận thấy rằng các từ “bột mì, đường, muối, bột nở, sữa và trứng” thường xuất hiện cùng với cụm từ đó. Sau đó, dựa trên những gì nó biết về thứ tự xuất hiện của những từ đó, nó sẽ đưa ra câu trả lời. (Các mô hình AI hoạt động theo cách này đang sử dụng cái được gọi là máy biến áp. GPT-4 là một trong những mô hình như vậy.)
Quá trình này giải thích tại sao AI có thể gặp ảo giác hoặc có vẻ thiên vị. Nó không có ngữ cảnh cho những câu hỏi bạn hỏi hoặc những điều bạn nói với nó. Nếu bạn nói với một người rằng họ đã nhầm lẫn, họ có thể nói: "Xin lỗi, tôi đã gõ nhầm." Nhưng đó chỉ là ảo giác - nó không gõ được gì cả. Nó chỉ nói như vậy vì nó đã quét đủ văn bản để biết rằng “Xin lỗi, tôi gõ nhầm đó” là câu người ta thường viết sau khi được ai đó sửa.
Tương tự, các mô hình AI kế thừa bất kỳ định kiến nào được đưa vào văn bản mà chúng được đào tạo. Nếu một người đọc nhiều về các bác sĩ và văn bản chủ yếu đề cập đến các bác sĩ nam, thì câu trả lời sẽ cho rằng hầu hết các bác sĩ đều là nam giới.
Mặc dù một số nhà nghiên cứu cho rằng ảo giác là một vấn đề cố hữu nhưng tôi không đồng ý. Tôi lạc quan rằng, theo thời gian, các mô hình AI có thể được dạy để phân biệt sự thật và hư cấu. Ví dụ, OpenAI đang thực hiện công việc đầy hứa hẹn trên mặt trận này.
Các tổ chức khác, bao gồm Viện Alan Turing và Viện Tiêu chuẩn và Công nghệ Quốc gia, đang nghiên cứu vấn đề sai lệch. Một cách tiếp cận là xây dựng các giá trị con người và lý luận cấp cao hơn vào AI. Nó tương tự như cách một con người tự nhận thức làm việc: Có thể bạn cho rằng hầu hết các bác sĩ là nam giới, nhưng bạn đủ ý thức về giả định này để biết rằng bạn phải cố tình chống lại nó. AI có thể hoạt động theo cách tương tự, đặc biệt nếu các mô hình được thiết kế bởi những người có nguồn gốc khác nhau.
Cuối cùng, tất cả những người sử dụng AI cần phải nhận thức được vấn đề thiên vị và trở thành người dùng có hiểu biết. Bài luận mà bạn yêu cầu AI soạn thảo có thể chứa đầy những định kiến cũng như sai sót thực tế. Bạn sẽ cần kiểm tra các thành kiến của AI cũng như của chính bạn.
Học sinh sẽ không học viết vì AI sẽ làm việc đó cho chúng.
Nhiều giáo viên lo lắng về cách AI sẽ làm ảnh hưởng đến công việc của họ với học sinh. Vào thời điểm mà bất kỳ ai có quyền truy cập Internet đều có thể sử dụng AI để viết bản thảo đầu tiên đáng nể của một bài luận, điều gì đã khiến học sinh không coi nó là tác phẩm của chính mình?
Hiện đã có các công cụ AI đang học cách phân biệt nội dung nào đó được viết bởi con người hay máy tính, vì vậy giáo viên có thể biết khi nào học sinh của họ không tự làm bài. Nhưng một số giáo viên không cố gắng ngăn cản học sinh của họ sử dụng AI trong bài viết của họ - họ thực sự đang khuyến khích điều đó.
Vào tháng 1/2023, một giáo viên tiếng Anh kỳ cựu tên là Cherie Shields đã viết một bài báo trên Tuần lễ Giáo dục về cách cô ấy sử dụng ChatGPT trong lớp học của mình. Nó đã giúp học sinh của cô mọi thứ, từ bắt đầu viết bài luận đến viết dàn ý và thậm chí đưa ra phản hồi về bài làm của họ.
Cô viết: “Giáo viên sẽ phải nắm bắt công nghệ AI như một công cụ khác mà học sinh có thể tiếp cận”. “Giống như chúng tôi đã từng dạy học sinh cách thực hiện tìm kiếm phù hợp trên Google, giáo viên nên thiết kế các bài học rõ ràng về cách bot ChatGPT có thể hỗ trợ viết bài luận. Thừa nhận sự tồn tại của AI và giúp học sinh làm việc với nó có thể cách mạng hóa cách chúng ta giảng dạy.” Không phải giáo viên nào cũng có thời gian để học và sử dụng một công cụ mới, nhưng các nhà giáo dục như Cherie Shields đã đưa ra lập luận thuyết phục rằng những người làm như vậy sẽ được hưởng lợi rất nhiều.
Nó làm tôi nhớ lại thời kỳ mà máy tính điện tử trở nên phổ biến vào những năm 1970 và 1980. Một số giáo viên dạy toán lo lắng rằng học sinh sẽ ngừng học cách làm số học cơ bản, nhưng những người khác lại sử dụng công nghệ mới và tập trung vào các kỹ năng tư duy đằng sau số học.
Có một cách khác mà AI có thể hỗ trợ trong việc viết và tư duy phản biện. Đặc biệt trong những ngày đầu này, khi ảo giác và thành kiến vẫn còn là một vấn đề, các nhà giáo dục có thể nhờ AI tạo ra các bài báo và sau đó làm việc với học sinh của mình để kiểm tra sự thật. Các tổ chức giáo dục phi lợi nhuận như Học viện Khan và Dự án OER mà tôi tài trợ, cung cấp cho các giáo viên và sinh viên các công cụ trực tuyến miễn phí tập trung lớn vào việc kiểm tra các khẳng định. Rất ít kỹ năng quan trọng hơn việc biết cách phân biệt điều gì đúng và điều gì sai.
Chúng ta cần đảm bảo rằng phần mềm giáo dục giúp thu hẹp khoảng cách về thành tích thay vì làm cho nó trở nên tồi tệ hơn. Phần mềm ngày nay chủ yếu hướng đến việc trao quyền cho những sinh viên đã có động lực. Nó có thể phát triển một kế hoạch học tập cho bạn, hướng bạn đến những nguồn tài liệu tốt và kiểm tra kiến thức của bạn. Nhưng nó vẫn chưa biết cách thu hút bạn vào một môn học mà bạn không quan tâm. Đó là vấn đề mà các nhà phát triển sẽ cần giải quyết để sinh viên thuộc mọi loại hình có thể hưởng lợi từ AI.
Cái gì tiếp theo?
Tôi tin rằng chúng ta có thể quản lý rủi ro của AI trong khi tối đa hóa lợi ích của chúng. Nhưng chúng ta cần phải tiến lên một cách nhanh chóng.
Các chính phủ cần xây dựng kiến thức chuyên môn về trí tuệ nhân tạo để có thể đưa ra các luật và quy định phù hợp với công nghệ mới này. Họ sẽ cần phải vật lộn với thông tin sai lệch và tin giả sâu, các mối đe dọa an ninh, những thay đổi đối với thị trường việc làm và tác động đến giáo dục. Chỉ trích dẫn một ví dụ: Luật pháp cần phải nêu rõ việc sử dụng deepfake nào là hợp pháp và về cách dán nhãn deepfake để mọi người hiểu khi nào thứ họ đang nhìn hoặc nghe thấy là không có thật
Các nhà lãnh đạo chính trị sẽ cần được trang bị để có cuộc đối thoại đầy đủ thông tin và chu đáo với cử tri của họ. Họ cũng sẽ cần phải quyết định mức độ hợp tác với các quốc gia khác trong những vấn đề này so với việc thực hiện một mình.
Trong khu vực tư nhân, các công ty AI cần theo đuổi công việc của mình một cách an toàn và có trách nhiệm. Điều đó bao gồm bảo vệ quyền riêng tư của mọi người, đảm bảo các mô hình AI của họ phản ánh các giá trị cơ bản của con người, giảm thiểu thành kiến, phổ biến lợi ích cho càng nhiều người càng tốt và ngăn chặn tội phạm hoặc khủng bố sử dụng công nghệ. Các công ty trong nhiều lĩnh vực của nền kinh tế sẽ cần hỗ trợ nhân viên của mình chuyển đổi sang môi trường làm việc tập trung vào AI để không ai bị bỏ lại phía sau. Và khách hàng phải luôn biết khi nào họ đang tương tác với AI chứ không phải con người.
Cuối cùng, tôi khuyến khích mọi người theo dõi sự phát triển của AI càng nhiều càng tốt. Đó là sự đổi mới mang tính thay đổi lớn nhất mà bất kỳ ai trong chúng ta cũng từng thấy trong đời và một cuộc tranh luận công khai lành mạnh sẽ phụ thuộc vào việc mọi người hiểu biết về công nghệ, lợi ích và rủi ro của nó. Lợi ích sẽ rất lớn và lý do tốt nhất để tin rằng chúng ta có thể quản lý rủi ro là vì chúng ta đã làm được điều đó trước đây.
Tác giả: Bill Gates là một doanh nhân người Mỹ, nhà từ thiện, tác giả và chủ tịch tập đoàn Microsoft, hãng phần mềm mà ông cùng với Paul Allen đã sáng lập ra. Ông luôn có mặt trong danh sách những người giàu nhất trên thế giới.