Li Fei Fei: Trí tuệ nhân tạo đang trở thành một đặc quyền, một đặc quyền cực kỳ loại trừ

Nhân Tạo Trí Tuệ: Một Đặc Quyền Độc Quyền

Nhà khoa học máy tính nổi tiếng người Mỹ, Giáo sư Li Fei-Fei, đã nhìn thấy sự kết hợp nhanh chóng giữa trí tuệ nhân tạo và công nghiệp vào năm 2017 khi cô đang giữ chức vụ nhà khoa học trưởng của Google Cloud AI. Từ nông nghiệp đến sản xuất nội dung, cho đến sản xuất hàng hóa, trí tuệ nhân tạo đã bắt đầu thay đổi cách vận hành của nhiều ngành công nghiệp.

Giáo sư Li nhận ra tác động sâu sắc mà trí tuệ nhân tạo đang tạo ra. Năm 2019, cô đã cùng với triết gia John Etchemendy thành lập Viện Nhân Bản Trí Tuệ tại Đại học Stanford (HAI), nhằm thúc đẩy sự phát triển của trí tuệ nhân tạo đồng thời đảm bảo rằng những công cụ mạnh mẽ này phục vụ lợi ích của con người, không chỉ đơn thuần là cải thiện năng suất lao động.

Trong năm 2015, dịch vụ lưu trữ hình ảnh Flickr của Yahoo đã tự động gắn nhãn “khỉ đột” cho bức ảnh chân dung một người đàn ông da đen 56 tuổi tên William. Sự cố này đã gây ra sự phẫn nộ lớn trong cộng đồng. Các lỗi tương tự tiếp tục xảy ra: một bức ảnh cổng trại tập trung của Đức được gắn nhãn là “cầu trèo”, và một phụ nữ da trắng có mặt mỏng màu cũng bị gắn nhãn là “khỉ đột”. Đến tháng 6, Google cũng gặp phải vấn đề tương tự khi hệ thống của họ gắn nhãn hai thiếu niên da đen là “khỉ đột”.

Mặc dù không có ý định xấu, nhưng những sự cố này tiết lộ những vấn đề đáng lo ngại hơn. Do dữ liệu huấn luyện thiếu đa dạng, các thuật toán không được kiểm tra đầy đủ và quyết định không chắc chắn đã làm trầm trọng thêm hậu quả tiêu cực. Báo cáo của nhà báo và bình luận viên Jack Clark đã chỉ ra rằng vấn đề cốt lõi nằm ở việc “biển nam giới” trong ngành công nghệ: đại diện không đầy đủ trong ngành công nghệ dẫn đến việc thuật toán vô tình mang lại định kiến, hoạt động kém hiệu quả đối với người dùng không phải nam giới hoặc da trắng.

Tính đến nay, vấn đề thiên vị trong trí tuệ nhân tạo vẫn chưa được giải quyết một cách hiệu quả. Tờ Washington Post đã đăng một bài viết chi tiết vào cuối năm 2023, khám phá tiềm ẩn định kiến trong công nghệ học máy. Các mô hình tạo hình ảnh AI như Dall-E và Stable Diffusion đôi khi vẫn phản ánh định kiến xã hội. Ví dụ, khi tạo ra hình ảnh của “người sáng tạo”, hệ thống thường thiên về hình ảnh người da trắng; trong khi mô tả “người phục vụ xã hội”, chúng thường hiển thị hình ảnh người da màu.

Học giả đã sớm nhận ra rằng trí tuệ nhân tạo có thể tạo ra tác động tiêu cực, tuy nhiên, do quy mô nghiên cứu hạn chế, rủi ro này chỉ tồn tại ở mức lý thuyết. Vấn đề nghiêm trọng hơn là ngày càng có nhiều học giả và chính sách nhận ra rằng chi phí cao để huấn luyện trí tuệ nhân tạo đang loại bỏ các nhà nghiên cứu khỏi lĩnh vực này, từ đó gây hại cho nghiên cứu độc lập về công nghệ mới này.

Với khoản đầu tư hàng tỷ đô la của các công ty như Meta, Google và Microsoft vào lĩnh vực trí tuệ nhân tạo, ngay cả các trường đại học hàng đầu của Mỹ cũng cảm thấy mình không đủ sức cạnh tranh. Meta dự định mua 350.000 GPU chuyên dụng để thúc đẩy mô hình trí tuệ nhân tạo của họ, trong khi nhóm xử lý ngôn ngữ tự nhiên của Đại học Stanford chỉ có 68 GPU để hỗ trợ nghiên cứu của họ.

Để theo đuổi nhu cầu về tính toán và dữ liệu cần thiết cho nghiên cứu trí tuệ nhân tạo, học giả thường phải lựa chọn hợp tác với các công ty công nghệ, dẫn đến sự mất cân đối quyền lực đang dần định hình ngành này. Các nhà nghiên cứu trí tuệ nhân tạo buộc phải điều chỉnh nghiên cứu của họ để phục vụ mục đích thương mại. Báo cáo của Đại học Stanford cho biết, năm 2022, ngành công nghệ đã đóng góp 32 mô hình học máy quan trọng, trong khi học giả chỉ có 3, so với 2014 khi hầu hết các đổi mới trí tuệ nhân tạo đều bắt nguồn từ các trường đại học.

Các chính sách đang thực hiện một số biện pháp để giải quyết vấn đề thiếu hụt vốn. Năm ngoái, Quỹ Khoa học Quốc gia Hoa Kỳ đã công bố đầu tư 140 triệu đô la để khởi động 7 viện nghiên cứu quốc gia do các trường đại học dẫn đầu, nghiên cứu về cách trí tuệ nhân tạo có thể giảm thiểu biến đổi khí hậu và cải thiện giáo dục.

Tuy nhiên, các học giả cho biết, nguồn vốn có thể chưa đến kịp. Với sự cạnh tranh gay gắt của Silicon Valley trong việc tạo ra các chatbot và bộ tạo hình ảnh, ngành này đang thu hút các giáo sư tương lai bằng mức lương cao và cơ hội nghiên cứu các vấn đề trí tuệ nhân tạo thú vị. Theo một báo cáo năm 2023, gần 70% các tiến sĩ trong lĩnh vực trí tuệ nhân tạo cuối cùng đã đi làm trong khu vực tư nhân, so với chỉ 21% vào hai thập kỷ trước.

Trí tuệ nhân tạo đang trở thành một đặc quyền, một đặc quyền rất khép kín.

Giáo sư Li Fei-Fei đã phát biểu tại Hội nghị GTC của NVIDIA: “Ngày nay, trí tuệ nhân tạo chủ yếu bắt đầu từ các đề tài nghiên cứu học thuật thúc đẩy bởi sự tò mò. Đây là lối vào cho sự đổi mới liên tục của xã hội chúng ta. Khi các công ty như OpenAI bắt đầu chiếm ưu thế trong sự phát triển của trí tuệ nhân tạo, cần có các quy định liên quan để ràng buộc các công ty này, để công chúng được hưởng lợi.”

Sự kiêu ngạo của Silicon Valley luôn là chủ đề của sự chỉ trích bên ngoài, mặc dù nhận thức của công chúng về rủi ro tiềm ẩn đang tăng lên, nhưng Silicon Valley vẫn tiếp tục nói về trí tuệ nhân tạo một cách cường điệu.

Silicon Valley liên tục giới thiệu các xe tự lái, thiết kế các thuật toán phát hiện ung thư tinh vi, và thực hiện tự động hóa từ đầu đến cuối trong các nhà máy. Đối với những người mất việc do công nghệ tiên tiến, thái độ của Silicon Valley dường như là một sự đào tạo lại nửa vời và gần như không che giấu sự thờ ơ.

Các cột mốc tiếp tục xuất hiện, các tình huống khủng khiếp đang đến gần. Một cuộc điều tra độc lập của ProPublica cho thấy trí tuệ nhân tạo thiên vị được sử dụng rộng rãi trong việc xem xét đơn vay, thậm chí hỗ trợ quyết định tha tù của các thẩm phán. Tương tự, trong một số trường hợp tuyển dụng, ứng viên phải trải qua quá trình sàng lọc của trí tuệ nhân tạo trước khi có thể phỏng vấn với người phỏng vấn thật.

Thực tế, những tác động phân biệt này thường xảy ra một cách vô tình, và những tổn thương tinh tế, cấu trúc hóa này gần như không thể được sửa chữa một cách nhanh chóng. Các vấn đề này gần như không có tiếng nói, ảnh hưởng rộng lớn, và rất ít quy định.

Trí tuệ nhân tạo không phải là hiện tượng, không phải là sự phá vỡ, không phải là vấn đề, cũng không phải là đặc quyền. Chúng ta đang đối mặt với một sức mạnh tự nhiên. Nó to lớn, mạnh mẽ và thất thường, có thể dễ dàng kích thích niềm cảm hứng, cũng như dễ dàng hủy hoại mọi thứ. Để trí tuệ nhân tạo trở nên đáng tin cậy, cần nhiều hơn những lời hứa suông từ các công ty thương mại.

Đâu là người bạn đáng tin cậy để giúp chúng ta hiểu về an toàn của công nghệ này? Độ minh bạch của công nghệ có bao nhiêu? Dữ liệu có thiên vị không, và chúng ta làm thế nào để sử dụng công nghệ này một cách công bằng và đáng tin cậy? Đây là những câu hỏi chúng ta cần giải quyết.

Trí tuệ nhân tạo vì con người

Chúng ta vẫn đang sống trong một cơn bão toàn cầu. Mỗi ngày dường như có những tin tức mới về mối đe dọa tự động hóa đối với người lao động trên toàn cầu.

Điều quan trọng cần nhấn mạnh là, dù là mô hình ngôn ngữ lớn hay mô hình ngôn ngữ lớn đa phương tiện, chúng có thể không thực sự có khả năng “suy nghĩ”. Mô hình ngôn ngữ lớn dễ mắc phải những sai lầm khái niệm ngớ ngẩn và thích tạo ra những lời nói hợp lý nhưng vô nghĩa.

Hiểu rõ những điều này giúp chúng ta tránh sự say mê quá mức vào khả năng của mô hình. Tuy nhiên, khi văn bản, hình ảnh, âm thanh và video do mô hình lớn tạo ra ngày càng phức tạp, ranh giới giữa thực và ảo ngày càng mờ nhạt. Ngày càng có nhiều phê bình gia đặt câu hỏi, chúng ta, cá nhân, tổ chức, thậm chí cả xã hội, liệu có khả năng phân biệt thực và ảo không? Điều này càng trở nên đáng lo ngại khi mọi người nhận ra đây mới chỉ là phiên bản 1.0.

Công nghệ đang không ngừng phát triển, và khả năng diễn đạt ngôn ngữ của thuật toán đã tiến gần đến mức con người. Các robot đang dần học cách đối phó với môi trường thực tế. Các mô hình thị giác không chỉ được huấn luyện qua hình ảnh, mà còn được huấn luyện trong thế giới ba chiều một cách sống động và thực tế. Trí tuệ nhân tạo có thể tạo ra nội dung một cách lưu loát như nó nhận diện nội dung. Cùng với đó, các vấn đề đạo đức không ngừng xuất hiện, và mối liên hệ với sự phát triển kinh tế – xã hội ngày càng chặt chẽ hơn, nhưng điều này cũng là một phần tất yếu của khoa học.

Deep learning đang phát triển với tốc độ chóng mặt, mỗi năm dường như là một lĩnh vực hoàn toàn mới, và sự phát triển về độ sâu và đa dạng của ứng dụng tăng lên một cách nhanh chóng, ngay cả sinh viên sau đại học và nghiên cứu sinh sau tiến sĩ cũng khó theo kịp. Có vô vàn khả năng và thách thức không ngừng.

Điều gì đã làm cho các công ty ở Silicon Valley trở nên mạnh mẽ? Không chỉ là hàng tỷ đô la và hàng tỷ người dùng, mà còn là khả năng tính toán và dữ liệu khổng lồ mà các phòng thí nghiệm học thuật không thể sánh bằng. Họ mạnh mẽ vì hàng nghìn người tài năng cùng làm việc dưới cùng một mái nhà.

Tuy nhiên, các công ty thương mại chỉ có thể tận dụng tài năng này, chứ không thể tạo ra nó. Silicon Valley đã chứng kiến nhiều lần: những kỹ sư tài năng gần như có thể xây dựng bất cứ thứ gì, nhưng khi được hỏi về vấn đề đạo đức của công việc, họ lại tỏ ra mơ hồ.

Đã đến lúc đánh giá lại các cấp độ giáo dục trí tuệ nhân tạo. Trong những năm tới, những người làm nghề không chỉ cần kiến thức chuyên môn, mà còn phải hiểu về triết học, đạo đức, và thậm chí cả luật pháp.

Khả năng tưởng tượng là vô hạn, nhưng tầm nhìn cần một sợi dây quan trọng để kết nối, sợi dây này chính là các trường đại học. Ngay từ khi trí tuệ nhân tạo bắt đầu được sử dụng để kiếm lợi, nó đã được phát triển trong các trường đại học. Trong khuôn viên trường đại học, vẫn có khả năng cảm nhận những đột phá nghiên cứu không ngờ tới nhất.

Chúng ta cần tái cấu trúc trí tuệ nhân tạo một cách căn bản, để nó trở thành một thực hành vì con người. Trí tuệ nhân tạo đã luôn theo đuổi tính khoa học, và bây giờ, nó cũng cần hướng tới tính nhân văn. Trí tuệ nhân tạo nên duy trì truyền thống học thuật tốt nhất, giữ gìn sự hợp tác và lòng tôn kính, đồng thời không sợ đối mặt với thực tế. Dù sao, ánh sáng sao trời cũng muôn màu. Khi ánh sáng trắng bùng nổ, tất cả các màu sắc sẽ tỏa sáng rực rỡ.

Từ khóa:

  • Trí tuệ nhân tạo
  • Đại học Stanford
  • Phân biệt đối xử
  • Đào tạo lại
  • Đầu tư

Viết một bình luận