AI cũng nên “nhảy múa” trong giới hạn.

Một cuộc tranh cãi giải trí gần đây đã khiến mọi người bắt đầu lo ngại về việc lừa đảo điện thoại sẽ “tăng cấp” khi kẻ lừa đảo bắt đầu sử dụng trí tuệ nhân tạo (AI). Sự việc này bắt đầu từ việc công ty OpenAI phát hành robot chat giọng nói mới GPT-4o. Theo tin tức của Yahoo News ngày 21 tháng 1, robot này có 5 chế độ âm thanh, trong đó chế độ “Sky” giống như giọng của nữ diễn viên Scarlett Johansson. CEO của OpenAI, Sam Altman, đã mời Scarlett Johansson đóng vai trò cho hệ thống này, nhưng cô ấy đã từ chối vì lý do cá nhân. Scarlett Johansson cảm thấy “sốc, tức giận và không thể tin được” trước sự kiện này, cho rằng âm thanh giả mạo này khó phân biệt với giọng thật.

Như vậy, đây là một lần nữa cho thấy vấn đề cơ bản về việc điều chỉnh và quản lý các doanh nghiệp công nghệ cao: tốc độ của quy định và chính sách không theo kịp tốc độ đổi mới. Thế giới sẽ thay đổi do AI và thuật toán, một số thay đổi có thể có lợi, nhưng cũng có những thay đổi chắc chắn sẽ gây ra thảm họa. Làm thế nào để cân nhắc giữa lợi ích và rủi ro?

Trước khi xảy ra vụ việc của Scarlett Johansson, ở Mỹ đã có sự kiện “AI Biden”. Một phiên bản AI giả mạo của Biden đã gọi điện cho 5000 cử tri tiềm năng ở New Hampshire, khuyến khích họ không bỏ phiếu trong cuộc bầu cử sơ bộ. Tất cả đều quy về công cụ AI Voice Engine mà OpenAI đã phát hành. Hệ thống này có thể tạo ra âm thanh tự nhiên gần giống với người nói dựa trên 15 giây mẫu âm thanh. Điều này nghĩa là nếu bạn tải lên một đoạn ghi âm của mình và một đoạn văn bản, công cụ này có thể sử dụng âm thanh tổng hợp nghe giống giọng của bạn để đọc văn bản. Hơn nữa, hệ thống này không chỉ có thể đọc bằng ngôn ngữ gốc của người nói, mà còn có thể “tái tạo” âm thanh của người nói bằng nhiều ngôn ngữ khác nhau như tiếng Tây Ban Nha, tiếng Pháp, tiếng Trung Quốc.

Công nghệ này cũng có thể mang lại lợi ích to lớn. Nó có thể cung cấp hỗ trợ trị liệu và giáo dục cá nhân hóa cho những người gặp khó khăn về ngôn ngữ hoặc cần hỗ trợ học tập, đồng thời nâng cao trải nghiệm học tập cho những người cần hỗ trợ này. Tuy nhiên, vấn đề cũng xuất hiện. Các công cụ chat AI tạo ra bằng mô hình ngôn ngữ lớn thường được huấn luyện bằng văn bản, hình ảnh, âm nhạc và video lấy từ Internet, bao gồm cả tài liệu có bản quyền, quý giá và thường phải trả phí, như giọng của Scarlett Johansson. Ngoài ra, các công cụ tạo âm thanh cũng giống như các công cụ tạo hình ảnh và video, có thể lan truyền thông tin sai lệch trên mạng xã hội và cũng có thể bị kẻ xấu sử dụng để thực hiện các hành vi lừa đảo trực tuyến hoặc qua điện thoại. OpenAI đã bày tỏ mối lo ngại rằng công nghệ này có thể bị sử dụng sai mục đích để phá vỡ xác minh giọng nói trực tuyến cho các tài khoản ngân hàng và ứng dụng cá nhân khác.

Bảo mật AI lại được đưa ra bàn thảo. Hiện tại, “tiếng ồn” do đổi mới AI tập trung vào ba lĩnh vực sau:

  • Rò rỉ thông tin riêng tư: Nhiều hệ thống AI có khả năng xử lý thông tin nhạy cảm của con người, nếu các hệ thống này có lỗ hổng bảo mật, có thể dẫn đến việc rò rỉ thông tin cá nhân, đánh cắp danh tính, thậm chí đe dọa toàn xã hội.
  • Tấn công ác ý: Kẻ tấn công ác ý có thể cố gắng khai thác các lỗ hổng trong hệ thống AI để thực hiện các cuộc tấn công khác nhau, bao gồm sửa đổi dữ liệu, giả mạo danh tính, lừa đảo.
  • Lừa dối quyết định: Một số hệ thống AI được sử dụng để ra quyết định tự động, như tuyển dụng, đánh giá tín dụng và phán quyết pháp luật. Nếu các hệ thống này bị tấn công ác ý hoặc bị làm biến dạng, có thể dẫn đến các quyết định bất công, sai lầm, thậm chí tăng cường sự bất bình đẳng xã hội.

Các bên liên quan đang cân nhắc cách thông qua luật mới để làm rõ “khu vực xám” hiện hữu. Được biết, nhiều cơ quan chính phủ của Hoa Kỳ đang tìm kiếm phương pháp tốt nhất để xác minh nội dung như “dấu nước”, và đang lên kế hoạch an ninh mạng tiên tiến. Chuyên gia cũng đề xuất rằng các chính phủ quốc gia cần thành lập cơ quan quản lý AI có khả năng hành động nhanh chóng và cung cấp kinh phí cho chúng. Đại hội đồng Liên Hợp Quốc cũng đã thông qua dự thảo nghị quyết đầu tiên về AI, nhằm đảm bảo công nghệ mới này có thể phục vụ tất cả các quốc gia, tôn trọng quyền con người và là công nghệ “an toàn, đáng tin cậy và đáng tin cậy”. Ý nghĩa lịch sử của nghị quyết này nằm ở chỗ nó là lần đầu tiên đặt ra các nguyên tắc cho việc sử dụng an toàn AI.

Tuy nhiên, vấn đề cốt lõi vẫn là tốc độ của quy định và chính sách không theo kịp tốc độ đổi mới, và sự sẵn lòng hợp tác của các doanh nghiệp cũng giảm đi.

Nhiều chuyên gia không muốn AI phát triển quá nhanh. Những mối đe dọa mà nó gây ra có thể nghe giống như cảnh trong tiểu thuyết khoa học viễn tưởng, nhưng cuối cùng chúng có thể được chứng minh là đúng. Vụ việc của Scarlett Johansson khiến chúng ta lo ngại rằng tội phạm mạng quy mô lớn, thao túng xã hội và các mối nguy hiểm khác có thể nhanh chóng tăng lên. Thậm chí trong các xung đột công khai, hệ thống AI có thể tự động triển khai các loại vũ khí, bao gồm cả vũ khí sinh học. Có thể tưởng tượng, khi sự tiến bộ của AI không được kiểm soát, rất có thể cuối cùng sẽ dẫn đến mất mát quy mô lớn về sinh mạng, phá hủy sinh quyển, con người bị đẩy ra khỏi vị trí và thậm chí có thể bị tuyệt chủng…

Dĩ nhiên, để đạt đến mức đủ đe dọa sự tồn tại của con người, AI vẫn còn một chặng đường dài phía trước. Nhưng sự tiến bộ của AI lại diễn ra nhanh chóng đến mức những lo ngại này không phải là hoang tưởng.

Chúng ta mong rằng trong dòng chảy của văn minh nhân loại, chúng ta sẽ sớm nhìn thấy ngọn hải đăng và tránh được những đá ngầm.

Từ khóa:

  • Trí tuệ nhân tạo
  • Lạm dụng
  • Bảo mật
  • Quyền riêng tư
  • Quy định

Viết một bình luận