OpenAI sẽ triển khai hệ thống cảnh báo trong ChatGPT trong trường hợp mạng thần kinh được sử dụng để tạo ra vũ khí sinh học. Công ty cho rằng: Các mô h́nh ngôn ngữ như GPT-4 có thể tăng tốc độ phát triển theo hướng này.
OpenAI cho biết GPT-4 chỉ tăng độ chính xác ở mức khiêm tốn khi tạo ra nguy cơ đe dọa sinh học. Công ty cũng lưu ư rằng thông tin về các mối nguy hiểm sinh học "tương đối dễ dàng" t́m thấy trên mạng, ngay cả khi không có trí tuệ nhân tạo.
Nghiên cứu của OpenAI?
Để phát triển hệ thống cảnh báo, OpenAI đă thực hiện một nghiên cứu trên 100 người: 50 tiến sĩ sinh học và 50 sinh viên đại học đă học ít nhất một khóa sinh học đại học. Mỗi người tham gia được chỉ định ngẫu nhiên vào nhóm kiểm soát chỉ có quyền truy cập Internet, hoặc nhóm có.
quyền truy cập GPT-4 ngoài Internet. Sau đó, mỗi người tham gia được yêu cầu hoàn thành một loạt nhiệm vụ, bao gồm một số khía cạnh của việc tạo ra nguy cơ sinh học.
OpenAI đo lường hiệu suất người tham gia dựa trên năm số liệu: độ chính xác, khả năng thu hồi, sự đổi mới, tốc độ và độ phức tạp. Nhóm có quyền truy cập vào GPT-4 cho thấy kết quả tốt hơn ở tất cả các thông số. Tuy nhiên, theo OpenAI, sự vượt trội chưa đủ lớn để có ư nghĩa thống kê.
Nguy hiểm ở đâu?
Trí tuệ nhân tạo nguy hiểm trong tương lai không phải bởi sự nổi dậy của máy móc, mà v́ con người sẽ tỏ ra tin tưởng quá mức vào AI và đưa ra những quyết định sai lầm bởi cho rằng "máy tính luôn luôn đúng", nhà phân tích hàng đầu tại Mobile Research, ông Eldar Murtazin chia sẻ ư kiến của ḿnh.
"Hiện tại không có mối nguy hiểm nào (trong việc sử dụng AI); có khả năng nó phụ thuộc vào những ǵ chúng ta có thể cung cấp cho các hệ thống như vậy để kiểm soát".
Theo ông, những hệ thống như vậy phải được sử dụng một cách thận trọng.