"Cha đẻ" AI lên tiếng cảnh báo
Trí tuệ nhân tạo (AI) là một công cụ tuyệt vời tạo đột phá trong kỷ nguyên mới, song nếu không được sử dụng đúng cách và quản lý chặt chẽ thì rất có thể nó sẽ trở thành thảm họa đối với con người.
Nhà khoa học tiên phong nghiên cứu về AI, ông Geoffrey Hinton - người đoạt giải Giải Nobel Vật lý 2023 mới đây đã lên tiếng cảnh báo về những hiểm họa mà công nghệ tân tiến này có thể gây ra.
Mặc dù ông Geoffrey Hinton tự hào về những đóng góp của mình trong lĩnh vực AI nhưng ông không che giấu mối lo ngại về những tác động lâu dài của công nghệ này. Ông bày tỏ mối lo ngại rằng sự phát triển của các hệ thống thông minh hơn con người có thể dẫn đến kịch bản mà những cỗ máy này sẽ nắm quyền kiểm soát.
Trong bài phát biểu khi nhận giải Nobel, ông Geoffrey Hinton cảnh báo: Những tiến bộ trong AI có thể dẫn đến việc tạo ra các hệ thống thông minh hơn con người, đặt ra những câu hỏi nghiêm túc về khả năng kiểm soát mà chúng có thể đạt được trong tương lai.
Lời cảnh báo của ông về “rủi ro hiện hữu” đã gây tiếng vang trong cộng đồng khoa học và công nghệ, khơi dậy các cuộc thảo luận về các giới hạn đạo đức và an toàn cần thiết khi công nghệ này tiếp tục phát triển.
Trang tin công nghệ IBM cũng vừa có bài phân tích các mối nguy hiểm mà AI có thể gây ra, đồng thời đưa ra một số giải pháp để ngăn ngừa hiểm họa và cách quản lý.
Thành kiến
Các nhà phân tích của IBM cho rằng, con người bẩm sinh đã có thành kiến và AI mà chúng ta phát triển có thể phản ánh những thành kiến đó. Các hệ thống này vô tình tìm hiểu những thành kiến có thể có trong dữ liệu đào tạo và được thể hiện trong thuật toán học máy (machine learning) và các mô hình học sâu làm nền tảng cho sự phát triển AI. Những thành kiến mà AI đã "học" có thể được duy trì trong quá trình triển khai ứng dụng và dẫn đến kết quả sai lệch.
Do đó, cần thiết lập chiến lược quản trị AI bao gồm các khuôn khổ, chính sách và quy trình hướng dẫn việc phát triển và sử dụng có trách nhiệm các công nghệ AI. Tạo ra các phương pháp thúc đẩy sự công bằng, chẳng hạn như bao gồm các bộ dữ liệu đào tạo đại diện, thành lập các nhóm phát triển đa dạng, tích hợp các số liệu về sự công bằng và kết hợp sự giám sát của con người thông qua các hội đồng hoặc ủy ban đánh giá đạo đức AI.
Đe dọa an ninh mạng
Những kẻ xấu cũng có thể khai thác AI để khởi động các cuộc tấn công mạng. Chúng thao túng các công cụ AI để sao chép giọng nói, tạo danh tính giả và tạo email nhằm mục đích lừa đảo, hack, đánh cắp danh tính của người khác hoặc xâm phạm quyền riêng tư và bảo mật của họ.
Chuyên gia IBM khuyến cáo, cần xây dựng chiến lược an toàn và bảo mật AI, tìm kiếm các lỗ hổng bảo mật trong môi trường AI thông qua đánh giá rủi ro và lập mô hình mối đe dọa. Đánh giá các lỗ hổng bằng cách sử dụng thử nghiệm đối nghịch.
Vấn đề về quyền riêng tư
Các mô hình ngôn ngữ lớn (LLM) là mô hình AI cơ bản cho nhiều ứng dụng AI tổng hợp, chẳng hạn như trợ lý ảo và chatbot AI đàm thoại. Đúng như tên gọi của chúng, những mô hình ngôn ngữ này đòi hỏi một lượng dữ liệu huấn luyện khổng lồ.
Nhưng dữ liệu giúp đào tạo LLM thường được lấy từ các trình thu thập dữ liệu web thu thập và thu thập thông tin từ các trang web. Dữ liệu này thường được lấy mà không có sự đồng ý của người dùng và có thể chứa thông tin nhận dạng cá nhân (PII). Các hệ thống AI khác mang lại trải nghiệm phù hợp cho khách hàng cũng có thể thu thập dữ liệu cá nhân.
Vì thế, IBM cho rằng, cần thông báo cho người dùng về các phương pháp thu thập dữ liệu cho hệ thống AI: thời điểm thu thập dữ liệu, PII (nếu có) được bao gồm và cách dữ liệu được lưu trữ và sử dụng. Cung cấp cho họ lựa chọn từ chối quá trình thu thập dữ liệu.
Tác hại với môi trường
AI dựa vào các phép tính tốn nhiều năng lượng với lượng khí thải carbon đáng kể. Các thuật toán đào tạo trên các tập dữ liệu lớn và chạy các mô hình phức tạp đòi hỏi lượng năng lượng khổng lồ làm tăng lượng khí thải carbon. Một nghiên cứu ước tính rằng việc đào tạo một mô hình xử lý ngôn ngữ tự nhiên sẽ thải ra hơn 600.000 pound carbon dioxide; gần gấp 5 lần lượng khí thải trung bình của một chiếc ô tô trong suốt vòng đời của nó.
Nhiều ứng dụng AI chạy trên máy chủ trong trung tâm dữ liệu, tạo ra nhiệt lượng đáng kể và cần lượng nước lớn để làm mát. Một nghiên cứu cho thấy rằng việc đào tạo các mô hình GPT-3 trong trung tâm dữ liệu của Microsoft tại Hoa Kỳ tiêu tốn 5,4 triệu lít nước.
IBM lưu ý, hãy chọn các mô hình AI tiết kiệm năng lượng, tái sử dụng các mô hình hiện có và tận dụng phương pháp học chuyển giao, sử dụng các mô hình được đào tạo trước để cải thiện hiệu suất trên các tác vụ hoặc tập dữ liệu liên quan.
Nguy cơ làm tăng tỷ lệ thất nghiệp
AI được cho rằng sẽ phá vỡ thị trường việc làm, làm dấy lên lo ngại rằng tự động hóa do AI cung cấp sẽ thay thế người lao động. Theo báo cáo của Diễn đàn Kinh tế Thế giới (WEF), gần một nửa số tổ chức được khảo sát kỳ vọng AI sẽ tạo ra việc làm mới, trong khi gần 1/4 coi đây là nguyên nhân gây mất việc làm.
Trong khi AI thúc đẩy sự tăng trưởng trong các vai trò như chuyên gia máy học, kỹ sư robot và chuyên gia chuyển đổi kỹ thuật số, công nghệ này cũng đang khiến vị trí trong các lĩnh vực khác bị suy giảm như: văn thư, thư ký, nhập dữ liệu và dịch vụ khách hàng...
Cách tốt nhất để giảm thiểu những tổn thất này là áp dụng cách tiếp cận chủ động, xem xét cách nhân viên có thể sử dụng các công cụ AI để nâng cao công việc của họ; tập trung vào việc tăng cường hơn là thay thế.
Thiếu trách nhiệm
Một trong những rủi ro không chắc chắn và ngày càng gia tăng của AI là việc thiếu trách nhiệm giải trình. Ai chịu trách nhiệm khi hệ thống AI gặp sự cố? Ai phải chịu trách nhiệm sau những quyết định gây tổn hại của công cụ AI?
Những câu hỏi này là trọng tâm trong các trường hợp va chạm chết người và va chạm nguy hiểm liên quan đến xe tự lái và các vụ bắt giữ trái pháp luật dựa trên hệ thống nhận dạng khuôn mặt. Trong khi những vấn đề này vẫn đang được các nhà hoạch định chính sách và cơ quan quản lý giải quyết, các tổ chức có thể kết hợp trách nhiệm giải trình vào chiến lược quản trị AI của mình để có mô hình ứng dụng AI tốt hơn. Hãy đặt quản trị AI thành ưu tiên của tổ chức.
Theo Trần Ngọc/VOV