Trí tuệ nhân tạo: Ô tô hay công cụ tìm kiếm?
Trí tuệ nhân tạo: Ô tô hay công cụ tìm kiếm?
Nhiều tháng qua, các công ty công nghệ ở Thung lũng Silicon liên tục cảnh báo về một dự luật sắp được thông qua sẽ phá hủy vị trí lãnh đạo của Mỹ trong lĩnh vực trí tuệ nhân tạo (AI).
Khi AI ngày càng trở nên phức tạp, các nhà lập pháp đang hành động để đảm bảo công nghệ này không gây ra những rủi ro không thể đảo ngược. Kết quả là, Dự luật số 1047 của California đã ra đời. Tháng trước, Thượng viện California đã chính thức thông qua dự luật này, và nó sẽ được chuyển đến Hạ viện California để xem xét và chỉnh sửa thêm.
Với việc California là nơi đặt trụ sở của nhiều công ty AI hàng đầu thế giới, dự luật này đã thu hút sự chú ý chưa từng có và vấp phải sự phản đối mạnh mẽ từ nhiều công ty công nghệ lớn. Yann LeCun, nhà khoa học AI trưởng của Meta, đã viết bài phản bác rằng Dự luật số 1047 sẽ chấm dứt lịch sử đổi mới công nghệ của California.
Câu hỏi đặt ra là: AI cần được quản lý như thế nào và chúng ta cần loại AI nào?
Điều ai chịu trách nhiệm?
Nếu một công ty sản xuất ô tô rất nguy hiểm và bỏ qua tất cả các bài kiểm tra an toàn, dẫn đến tai nạn nghiêm trọng, chắc chắn công ty đó sẽ bị phạt, thậm chí có thể bị truy cứu hình sự.
Nhưng nếu công ty đó phát triển một công cụ tìm kiếm, và kẻ xấu sử dụng nó để tìm kiếm thông tin về “cách phạm tội”, gây ra hậu quả không thể khắc phục, nhưng theo Điều 230 của Đạo luật Quản lý Truyền thông (Communications Decency Act), công ty đó sẽ không phải chịu trách nhiệm pháp lý.
Điều này đặt ra câu hỏi: AI giống như ô tô, cần nhà sản xuất thực hiện các bài kiểm tra an toàn; hay giống như công cụ tìm kiếm?
Những tranh cãi gay gắt xung quanh Dự luật số 1047 tập trung vào vấn đề này. Nếu dự luật này được thông qua, các công ty công nghệ ở Silicon Valley với khoản đầu tư hơn 100 triệu đô la vào AI sẽ bị yêu cầu tiến hành các bài kiểm tra an toàn. Nếu không tuân thủ, các công ty này sẽ bị phạt, số tiền lên tới 30% chi phí phát triển mô hình, và các nhà phát triển có thể đối mặt với truy cứu hình sự.
Theo các nhà lập pháp, các mô hình lớn là “ô tô” do các công ty công nghệ tạo ra, họ nên chịu trách nhiệm về sự an toàn của chúng. Tuy nhiên, các công ty công nghệ lớn không đồng ý với quan điểm này.
Họ cho rằng việc thảo luận về sự an toàn của AI vẫn còn quá sớm. Andrew Ng, nhà khoa học AI, nói: “Tôi không lo lắng về sự an toàn của AI, giống như tôi không lo lắng về việc thừa miệng trên sao Hỏa.” LeCun cũng viết trên Twitter (nay là X) rằng việc sở hữu trí tuệ không có nghĩa là sẽ sinh ra khát vọng thống trị, và những người thông minh nhất trong loài người không nhất thiết phải tham vọng quyền lực.
Nếu Dự luật số 1047 cuối cùng được thông qua, nó sẽ làm tăng đáng kể chi phí phát triển của các công ty lớn, có thể thay đổi chiến lược của họ trong lĩnh vực AI (ví dụ: không còn mở mã nguồn cho các mô hình lớn), và ảnh hưởng đến toàn bộ hệ sinh thái phát triển phần mềm, thậm chí có thể ngăn chặn sự phát triển của các công ty khởi nghiệp mới trong lĩnh vực AI.
Theo yêu cầu của Dự luật, dù công ty đã “đồng bộ hóa” AI của mình để không gây hại cho con người và mở mã nguồn, nhưng nếu một nhà phát triển khác đảo ngược điều này và sử dụng AI để làm hại, công ty vẫn phải chịu trách nhiệm, điều này không hợp lý.
Điều đáng lo ngại hơn là việc chúng ta đã chứng kiến trong nhiều ngành, yêu cầu tuân thủ quá mức sẽ chiếm dụng thời gian và năng lượng, từ đó ảnh hưởng đến tiến độ của hoạt động kinh doanh cốt lõi.
Scott Wiener, người soạn thảo Dự luật, đã chỉ ra rằng ông đã điều chỉnh một số nội dung dự luật nhằm giải quyết mối lo ngại của mọi người. Ông đã điều chỉnh tiêu chuẩn mô hình lớn và làm rõ rằng các nhà phát triển không cần phải chịu trách nhiệm hoàn toàn về hậu quả tiêu cực từ việc mở mã nguồn. Wiener cũng nhấn mạnh rằng ông sẵn lòng điều chỉnh thêm, mục đích của ông chỉ là đảm bảo mọi người chú ý đến sự an toàn của AI, điều này rất quan trọng.
Dự luật này liệu có hiệu quả?
Hiện tại, rủi ro mà AI có thể gây ra có thể được chia thành hai loại: kết quả không mong muốn và lạm dụng cố ý.
Kết quả không mong muốn là những tình huống mà nhiều tác phẩm khoa học viễn tưởng thường dự đoán: khi AI tiếp tục tiến hóa, chúng bắt đầu có ý thức tự chủ. Nếu giá trị cơ bản của chúng mâu thuẫn với con người, điều này có thể dẫn đến kết quả thảm khốc.
Dự luật số 1047 dường như tập trung vào việc giải quyết loại rủi ro này, giả định rằng AI là nguy hiểm và yêu cầu các nhà phát triển đánh giá an toàn của các mô hình lớn để xác định rủi ro tiềm ẩn. Dự luật cũng yêu cầu, khi AI gặp sự cố, cần tắt nó và báo cáo cho cơ quan quản lý mới thành lập. Ngay cả khi mô hình lớn hoạt động tốt, các nhà phát triển cũng cần chứng minh rằng công nghệ là an toàn thông qua “xác nhận an toàn”, và việc này cần được thực hiện hàng năm.
Mặc dù các quy định này có vẻ hợp lý về mặt lý thuyết, nhưng trong thực tế, chúng khó có thể hiệu quả. Kết quả không mong muốn được gọi là “không mong muốn” vì chúng khó dự đoán và ngăn chặn. Dù là giới khoa học hay thương mại, chúng ta vẫn chưa giải quyết được hoàn toàn vấn đề “đồng bộ hóa” AI, và dù có áp dụng các biện pháp an toàn và phòng ngừa nghiêm ngặt nhất, hệ thống AI vẫn có thể phát triển theo cách có hại.
Điều đáng lo ngại hơn là lạm dụng cố ý – việc vũ khí hóa AI để gây hại cho con người. Hiện tại, Dự luật số 1047 gần như không đưa ra bất kỳ biện pháp nào để giải quyết rủi ro từ việc con người ác ý lạm dụng AI. Những người này ít có khả năng tuân thủ các yêu cầu của luật pháp và họ cũng có nhiều khả năng nằm ngoài phạm vi của California, khiến việc thi hành Dự luật trở nên khó khăn.
Mike Knoop, đồng sáng lập kiêm người phụ trách AI của công ty khởi nghiệp Zapier, cho biết: “Nhìn chung, tôi hy vọng chúng ta sẽ quản lý các trường hợp sử dụng không lành mạnh và người dùng không lành mạnh, thay vì các nhà nghiên cứu và nhà phát triển.”
Trong quá khứ, con người thường tiếp cận công nghệ với nguyên tắc thận trọng, ví dụ: hạn chế việc tiếp cận vật liệu phân hạch như uranium để tránh khả năng tạo vũ khí hủy diệt hàng loạt. Đối với những mối nguy hiểm dễ nhận biết, điều này là hợp lý, nhưng với AI, tình hình trở nên phức tạp hơn.
Các mối đe dọa tiềm ẩn từ AI thường được đề cập, nhưng nguy cơ tồn tại thực sự không phải là cấp bách, trong khi lợi ích mang lại thì rõ ràng, từ dịch thuật ngôn ngữ đến nghiên cứu khoa học tiên tiến, lợi ích tiềm tàng của AI là rất lớn. Về mặt khác, rủi ro từ AI cũng là một thách thức liên tục, và không thể giải quyết bằng một đạo luật, mà cần sự đồng thuận.
Fei-Fei Li, người được mệnh danh là “Người mẹ của AI”, trong tự truyện của cô “Tôi thấy thế giới”, đã nói: “Câu hỏi quan trọng là động lực gì thúc đẩy sự phát triển của AI trong lĩnh vực khoa học và công nghiệp? Tôi tin rằng động lực này phải rõ ràng hướng tới con người.”
Làm thế nào để đảm bảo sự an toàn của AI?
AI hiện tại chưa đe dọa cuộc sống của chúng ta, nhưng Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ, Bộ An ninh Nội địa và Geoffrey Hinton, người được gọi là “Cha đẻ của AI”, đều cho rằng nguy cơ sẽ nhanh chóng trở nên thực tế. Hơn 70% các nhà nghiên cứu đã bày tỏ lo ngại “thực sự” về rủi ro tiềm ẩn từ việc lạm dụng AI.
Ngoài các chuyên gia kỹ thuật, theo khảo sát, gần 40% người Mỹ lo ngại về việc sử dụng AI hơn là hứng thú, trong khi chỉ có 15% người biểu thị cảm xúc ngược lại.
Đây là một khoảng cách hiểu biết lớn, các chuyên gia kỹ thuật không chỉ cần giải thích cho công chúng, mà còn cần thu hẹp khoảng cách hiểu biết giữa họ và các nhà nghiên cứu.
LeCun trong tự truyện “Con đường của Khoa học” đã nói: “Sự sợ hãi của chúng ta về quyền lực của AI chủ yếu đến từ việc chúng ta chiếu những đặc điểm nhân loại lên máy móc. Hầu hết mọi người dễ dàng nhầm lẫn giữa trí tuệ và nhân tính, khát vọng thống trị không liên quan đến trí tuệ, mà nhiều hơn là vấn đề của việc tiết hormone testosterone. Những người thông minh nhất trong chúng ta không luôn luôn khao khát trở thành người lãnh đạo, và có nhiều ví dụ rõ ràng trong chính trị quốc tế. Một số công ty thương mại thường mời các nhà khoa học xuất sắc làm quản lý, nhưng nhiều người từ chối, họ muốn tham gia trực tiếp vào nghiên cứu hơn là quản lý.
Để minh họa, hãy lấy ví dụ về loài vượn đỏ, loài linh trưởng không xã hội. Chúng gần như thông minh như con người, với kích thước não bằng một nửa của chúng ta. Vượn đỏ sống đơn độc, tránh xâm nhập lãnh thổ của các nhóm khác, và các mối quan hệ xã hội của chúng chỉ giới hạn trong quan hệ mẹ con trong hai năm và xung đột lãnh thổ. Sự tiến hóa không tạo ra khát vọng thống trị hàng xóm của chúng: không có cấu trúc xã hội, không có hệ thống thống trị.
Con người đã tiến hóa nhiều ham muốn và cảm xúc để tồn tại, bao gồm sự tò mò, khát vọng khám phá, cạnh tranh, khuất phục, khao khát tiếp xúc với đồng loại, tình yêu, thù hận, săn mồi, và sự ưu ái đối với thành viên gia đình, bộ lạc, văn hóa, và quốc gia của chúng ta. Chỉ khi chúng ta xác định rõ ràng những khát vọng này trong máy móc thông minh, chúng mới khao khát thống trị con người.
Con người có nhiều kinh nghiệm trong việc đưa hệ thống giá trị đạo đức vào luật pháp, những giá trị này được mã hóa để giúp nhiều thực thể thông minh và mạnh mẽ vận hành tốt. Mặt khác, những giá trị này cũng được mã hóa trong giáo dục: hàng nghìn năm qua, chúng ta đã dạy con cái phân biệt đúng sai và cố gắng hành xử tốt trong xã hội. Chúng ta cũng có lý do để tin rằng con người có thể mã hóa những giá trị này vào máy móc.
Sách khuyến nghị
Yann LeCun, người đoạt giải Turing, một trong ba nhà khoa học “tam hùng” của Deep Learning, và người cha đẻ của Mạng Nơron Convolutional, đã viết cuốn sách “Con đường của Khoa học”. Cuốn sách này kể về một tuyên ngôn về sự dũng cảm, ông học vì tri thức, không phải bằng cấp, và trải nghiệm của ông đã chứng minh rằng việc vào đại học nổi tiếng thông qua kỳ thi tuyển sinh khắc nghiệt không phải là con đường duy nhất để thành công trong khoa học. Ông đọc rộng rãi, tạo nền tảng lý thuyết vững chắc cho suy nghĩ khoa học của mình. Ông độc đáo, làm những điều mình thích, dù điều đó không được nhìn nhận trong ngắn hạn. Trong thời kỳ suy thoái của nghiên cứu mạng nơron, ông kiên trì và cuối cùng đã đạt được thành tựu nổi bật trên toàn thế giới.
AI đang làm thay đổi xã hội con người, tương lai có thể máy móc sẽ suy nghĩ? Cuốn sách này kể về câu chuyện về sự trỗi dậy của AI – một sự kiện lịch sử chưa từng có.
Từ khóa:
- Trí tuệ nhân tạo
- Quản lý AI
- Dự luật 1047
- Thung lũng Silicon
- Andrew Ng