AI càng “lên ngôi”, việc kiểm soát càng cấp thiết

Thứ hai - 23/09/2024 06:20

Cuộc đua về trí tuệ nhân tạo (AI) ngày càng tăng tốc trên phạm vi toàn cầu, với sự ra mắt của hàng loạt các mô hình tiên tiến có khả năng vượt trội so với trước đây. Thực tế này đòi hỏi sự cấp thiết của các biện pháp quản lý AI nhằm đảm bảo AI không chỉ phát triển về mặt kỹ thuật mà còn phải phù hợp với các tiêu chuẩn đạo đức và tôn trọng quyền con người.

AI càng “lên ngôi”, việc kiểm soát càng cấp thiết

Cuộc đua không ngừng nghỉ
 
Thụy Sĩ giữa tháng 9/2024 cho ra mắt siêu máy tính mới có tên Alps - một trong những siêu máy tính nhanh nhất thế giới - được kỳ vọng sẽ giúp đưa đất nước trở thành quốc gia dẫn đầu về các giải pháp AI đáng tin cậy. Mục đích của việc phát triển siêu máy tính Alps là đáp ứng nhu cầu về dữ liệu cực lớn và khoa học tính toán, đồng thời tận dụng AI được nhiều hơn. Siêu máy tính Alps được đặt trong 33 tủ có diện tích 116 m2, giúp đào tạo các mô hình AI phức tạp cho các ứng dụng quan trọng, như y học và nghiên cứu khí hậu. Giới nghiên cứu cho biết, một chiếc máy tính xách tay thương mại sẽ phải mất 40.000 năm để thực hiện được những công việc mà siêu máy tính Alps có thể thực hiện trong một ngày.

Trước đó, OpenAI đã ra mắt một loạt mô hình AI mới, được biết đến với tên gọi OpenAI o1-Preview, được thiết kế để giải quyết các nhiệm vụ phức tạp và các vấn đề khó khăn hơn trong khoa học, mã hóa và toán học - những lĩnh vực mà các mô hình trước đây thường bị chỉ trích vì đã không cung cấp câu trả lời nhất quán. Theo đó, các mô hình mới đã được đào tạo nhằm điều chỉnh quy trình suy nghĩ, thử nghiệm các phương pháp khác nhau và phát hiện lỗi trước khi đưa ra câu trả lời cuối cùng. Các mô hình OpenAI o1-Preview đã giải quyết thành công những yêu cầu khó trong các lĩnh vực vật lý, hóa học và sinh học với trình độ tương đương các tiến sĩ. OpenAI cũng cho biết các mô hình AI mới đã vượt qua các bài kiểm tra bẻ khóa nghiêm ngặt và có thể chống lại các hành vi nhằm vượt rào cản bảo mật.

Tại hội nghị cấp cao AI toàn cầu lần thứ ba diễn ra trong ba ngày 10-12/9/2024 ở Riyadh (Saudi Arabia), Cơ quan quản lý dữ liệu và AI của Saudi Arabia (SDAIA) đã công bố ALLaM - mô hình ngôn ngữ tiếng Arab - hiện đã có trên nền tảng đám mây Microsoft Azure. Mô hình gồm 7 tỷ tham số này, do Trung tâm AI quốc gia của SDAIA phát triển, nhằm thúc đẩy dịch vụ AI và đổi mới sáng tạo tại Saudi Arabia và nhiều nơi khác. Theo các chuyên gia, ALLaM sẽ thúc đẩy đổi mới trong xử lý ngôn ngữ tiếng Arab trong 1-2 năm tới. Cũng trong dịp này, SDAIA và “gã khổng lồ” Nvidia của Mỹ đã công bố kế hoạch thành lập một trung tâm dữ liệu hiệu suất cao, với nền tảng 5.000 GPU - lớn nhất ở khu vực Trung Đông và Bắc Phi.

Trong khi đó, Ủy ban châu Âu (EC) cũng trong tháng 9 công bố sáng kiến thành lập các nhà máy AI nhằm tăng cường vai trò dẫn đầu của châu Âu trong lĩnh vực AI đáng tin cậy. Nhà máy AI là những trung tâm chuyên biệt được thiết kế để hỗ trợ các nhà phát triển AI thông qua việc cung cấp các tài nguyên quan trọng như sức mạnh tính toán, dữ liệu và nhân tài. Các nhà máy này sẽ kết nối với Mạng lưới siêu máy tính hiệu năng cao của châu Âu, trong đó có những siêu máy tính hàng đầu thế giới. Mục tiêu chính của nhà máy AI là tạo điều kiện cho các nhà phát triển AI, bao gồm các công ty khởi nghiệp, ngành công nghiệp và nhà nghiên cứu, có thể huấn luyện và tối ưu hóa các mô hình AI lớn một cách hiệu quả và an toàn. Nhà máy AI sẽ tích hợp các dịch vụ tiên tiến như lưu trữ và xử lý dữ liệu, cung cấp một môi trường hoàn chỉnh cho việc phát triển AI. Thông qua mạng lưới nhà máy AI trải rộng khắp châu Âu, các nhà phát triển AI sẽ có thể truy cập vào một khung hợp tác toàn diện, cho phép chia sẻ tài nguyên và kiến thức. Điều này không chỉ thúc đẩy sự phát triển nhanh chóng của các giải pháp AI mà còn đảm bảo tính minh bạch và tin cậy trong quá trình phát triển. 

 Các nỗ lực quản lý
 
Mặc dù AI đang ngày càng phổ biến, cuộc khảo sát toàn cầu do Peninsula Group Global thực hiện vào tháng 8 vừa qua cho thấy rủi ro bảo mật nổi lên như mối quan tâm hàng đầu đối với AI. Khoảng 50% số doanh nghiệp vừa và nhỏ (SME) ở các quốc gia như Australia, New Zealand, Canada, Ireland và Anh vẫn đang ngần ngại ứng dụng AI trong hoạt động của mình. Trên phương diện toàn cầu, có tới 47% số nhà tuyển dụng được khảo sát cho rằng rủi ro bảo mật là mối quan ngại lớn nhất đối với AI tại nơi làm việc, tăng đáng kể so với mức 30% trong cuộc khảo sát vào năm 2023. Các nhà chuyên môn nhận định: “Trong khi AI mang lại tiềm năng to lớn để thúc đẩy năng suất và hợp lý hóa quy trình, mối lo ngại về rủi ro từ AI đang tăng lên, đặc biệt sau các vụ tấn công mạng nghiêm trọng”. Mặc dù các doanh nghiệp không hoàn toàn phản đối việc sử dụng AI, nhưng họ đang muốn phân định rõ ràng và đảm bảo vấn đề bảo mật, năng suất và chất lượng đầu ra. Đây là những lo ngại mà các nhà phát triển AI sẽ cần phải giải quyết nếu muốn tăng cường áp dụng AI trong cộng đồng SME toàn cầu. “Vấn đề ở đây không phải là phản đối AI, mà là lựa chọn đúng công cụ, và sử dụng chúng một cách sáng suốt”.

Mỹ, Anh và Liên minh châu Âu (EU) ngày 5/9 đã ký Công ước khung về trí tuệ nhân tạo (AI) của Hội đồng châu Âu. Đây là hiệp ước quốc tế đầu tiên mang tính ràng buộc pháp lý về việc sử dụng AI, được hơn 50 quốc gia soạn thảo trong hơn 2 năm. Trước đó, một quan chức cấp cao của chính quyền Tổng thống Joe Biden cho biết Mỹ cam kết đảm bảo rằng các công nghệ AI không chỉ phát triển về mặt kỹ thuật mà còn phải phù hợp với các tiêu chuẩn đạo đức và tôn trọng quyền con người. Chính phủ Mỹ cũng hoan nghênh sự đóng góp quan trọng của EC trong việc đạt được mục tiêu này. Trong khi đó, Bộ trưởng Công nghệ Anh Peter Kyle nhấn mạnh đây là “hiệp ước đầu tiên thực sự có tầm ảnh hưởng mạnh mẽ trên toàn cầu”, giúp kết nối một nhóm các quốc gia rất đa dạng và khác biệt về mặt chính trị cũng như văn hóa.

Hội đồng châu Âu hồi tháng 5 đã thông qua hiệp ước toàn cầu đầu tiên mang tính ràng buộc về mặt pháp lý liên quan các quy định quản lý việc sử dụng trí tuệ nhân tạo AI. Hội đồng châu Âu cho biết Công ước khung về AI đặt ra khung pháp lý đối với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm.

Trên bình diện quốc gia, Cơ quan Quản lý Không gian mạng Trung Quốc (CAC) ngày 14/9 đã công bố dự thảo quy định nhằm chuẩn hóa việc dán nhãn nội dung tổng hợp do AI tạo ra để bảo vệ an ninh quốc gia và lợi ích công cộng. Nội dung tổng hợp do AI tạo ra, theo định nghĩa của các quy tắc được đề xuất, là bất kỳ văn bản, hình ảnh, âm thanh hoặc video nào được tạo ra thông qua việc sử dụng công nghệ AI. Dự thảo quy định, các nhà cung cấp dịch vụ thông tin Internet phải tuân thủ những tiêu chuẩn quốc gia bắt buộc khi dán nhãn nội dung đó. Các nhà cung cấp các chức năng như tải xuống, sao chép hoặc xuất các tài liệu do AI tạo ra phải đảm bảo gắn các nhãn rõ ràng vào tệp. Các nền tảng phân phối nội dung cũng được yêu cầu phải quản lý việc phát tán những tài liệu do AI tạo ra bằng cách cung cấp các chức năng nhận dạng và nhắc nhở người dùng công khai bài đăng của họ có chứa nội dung do AI tạo ra hay không.

Theo TTXVN

Tác giả: NVĐ

Nguồn tin: hdll.vn

Tổng số điểm của bài viết là: 175 trong 35 đánh giá

Xếp hạng: 5 - 35 phiếu bầu
Click để đánh giá bài viết

Những tin mới hơn

Những tin cũ hơn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây