Số liệu do chính các chatbot trí tuệ nhân tạo cung cấp cho thấy, khoảng 60% các truy vấn mà người dùng gửi đến được bổ sung bằng dữ liệu người dùng dưới dạng tập tin, bảng tính, tài liệu tải lên hoặc nhập liệu trực tiếp. Có nghĩa là một phần đáng kể trong tương tác với trí tuệ nhân tạo liên quan đến việc người dùng muốn phân tích hoặc xử lý dữ liệu của riêng họ thay vì chỉ tìm kiếm thông tin chung. Điều này đặt ra những lo ngại về vấn đề bảo mật thông tin.
GS. Toby Walsh tại Viện Trí tuệ nhân tạo, Đại học New South Wales, Australia cho biết: "Bạn nên biết rằng bất cứ điều gì bạn nhập vào đó, bạn đang chia sẻ nó, vì vậy, bạn nên rất cẩn thận khi chia sẻ bất kỳ thông tin nhạy cảm, bất kỳ thông tin riêng tư nào".
Sự phát triển của các mô hình trí tuệ nhân tạo mã nguồn mở được chia sẻ công khai cũng dẫn đến những lo ngại AI bị lợi dụng.
GS. Angela Zhang tại Đại học Nam California, Mỹ cho rằng: "Luôn có một mối lo ngại tiềm ẩn với các mô hình mã nguồn mở vì chúng có khả năng rơi vào tay những kẻ xấu".
Ngoài ra, trong trường hợp thiếu quản trị hiệu quả, các nền tảng trí tuệ nhân tạo có thể làm phức tạp thêm các nguy cơ bị lợi dụng tạo ra các thông tin lừa đảo, tiến hành các cuộc tấn công đánh cắp thông tin hay làm gia tăng chia rẽ, phân biệt dựa trên các phân tích xu hướng truyền thông xã hội.
Tổng Thư ký Liên hợp quốc Antonia Guterres khẳng định: "Nếu không được quản lý, trí tuệ nhân tạo có thể được sử dụng như một công cụ lừa dối. Nó có thể phá vỡ nền kinh tế và thị trường lao động, làm suy giảm niềm tin vào các thể chế và tạo ra những tác động đáng ngại trên chiến trường".
Ông Borge Brende - Chủ tịch Diễn đàn Kinh tế thế giới (WEF) - cho rằng: "Tôi nghĩ những thuật toán này nên được con người kiểm soát chứ không phải để thuật toán kiểm soát con người".
Bên cạnh đó, giới chuyên gia cũng lo ngại về độ tin cậy của các thông tin phản hồi, mức độ chất lượng dữ liệu đào tạo đầu vào của các nền tảng trí tuệ nhân tạo, thậm chí là các thành kiến hoặc ảnh hưởng thể chế trong việc phát triển mô hình trí tuệ nhân tạo.
Hiện chính phủ các quốc gia đều đang tìm cách kiểm soát các ứng dụng trí tuệ nhân tạo khi công nghệ này ngày càng được sử dụng rộng rãi hơn, nhằm đảm bảo dụng trí tuệ nhân tạo phát triển theo hướng có lợi cho con người, đồng thời hạn chế tối đa những rủi ro tiềm ẩn. Mới nhất, trong tuần qua, Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu đã có hiệu lực thi hành.
Ở quy mô quốc tế, Liên hợp quốc đang xây dựng hai cơ chế mới về trí tuệ nhân tạo làm nền móng cho khuôn khổ quản trị toàn cầu về trí tuệ nhân tạo trong tương lai.