Bà Mira Murati, Giám đốc công nghệ của OpenAI, là người dẫn đầu đội ngũ phát triển ứng dụng chatbot ChatGPT.
Trong cuộc trả lời phỏng vấn với Time mới đây, bà Mira Murati - “mẹ đẻ” của ChatGPT đã có những chia sẻ chung quanh các mặt hạn chế của chatbot này, đồng thời cảnh báo AI có thể bị sử dụng vào mục đích xấu, do đó cần có những quy định rõ ràng để quản lý.
Mira Murati là Giám đốc công nghệ (CTO) của OpenAI. Bà là người dẫn đầu đội ngũ nghiên cứu tạo ra ChatGPT, chatbot sử dụng trí tuệ nhân tạo đang tạo “cơn sốt” trên phạm vi toàn cầu trong thời gian gần đây.
Theo thống kê từ Google Trends, trong suốt tháng 1 vừa qua, ChatGPT đã vượt mặt Bitcoin về số lượt tìm kiếm trên Google. Tính đến hết tháng đầu năm 2023, người dùng ChatGPT đã cán mốc con số 100 triệu người, qua đó đưa công cụ này trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử (theo nghiên cứu của UBS).
Với sức hút mà ChatGPT tạo ra, OpenAI hiện được định giá khoảng xấp xỉ 30 tỷ USD. Gần đây nhất, tập đoàn Microsoft đã công bố khoản đầu tư trị giá 10 tỷ USD vào công ty khởi nghiệp này. Sự “trỗi dậy” của ChatGPT cũng khiến một “ông lớn công nghệ” khác của Mỹ là Google phải bật “báo động đỏ” và thúc đẩy ra mắt một chatbot mới để cạnh tranh với đối thủ.
Khi được hỏi về thành công của ChatGPT, bà Murati chia sẻ rằng không nghĩ “đứa con” của mình có thể thu hút sự quan tâm lớn đến như vậy. “Trên thực tế, chúng tôi thậm chí đã có những lo lắng khi ra mắt ChatGPT. Tôi đang mong chờ xem công cụ này sẽ được mọi người ứng dụng ra sao trong những lĩnh vực khác của cuộc sống, chứ không chỉ là sự mới lạ và tò mò thuần túy”.
Mặc dù sở hữu những tính năng vượt trội, song theo CTO của OpenAI, ChatGPT cũng có những hạn chế nhất định, đó là nó có thể cung cấp thông tin sai sự thật.
“ChatGPT về cơ bản là một mô hình đàm thoại lớn - một mạng nơ-ron khổng lồ được đào tạo để dự đoán từ tiếp theo. Những thách thức với nó cũng giống những thách thức mà chúng ta thấy với các mô hình ngôn ngữ lớn cơ sở, đó là có thể đưa thông tin không đúng” - bà Murati nói.
Tương tự nhiều phần mềm trí tuệ nhân tạo khác, ChatGPT cũng vấp phải nhiều ý kiến trái chiều sau khi ra mắt. Quan ngại về mặt đạo đức như gian lận thi cử, đạo văn… là vấn đề chung của nhiều chuyên gia đề cập khi nhắc đến ứng dụng chatbot của OpenAI.
Cùng với sự xuất hiện và lan tỏa của ChatGPT là những cảnh báo về mối nguy hiểm mà các ứng dụng trí tuệ nhân tạo như ChatGPT có thể gây ra cho xã hội. Chia sẻ về vấn đề này, bà Murati thừa nhận có rất nhiều bài toán khó cần được giải quyết, chẳng hạn như “Làm thế nào để công cụ này thực hiện đúng những gì mà chúng ta muốn?” “Bằng cách nào chúng ta có thể bảo đảm các mô hình AI hoạt động phù hợp với ý định của con người và trên tất cả là phục vụ nhân loại?”…
“Còn nhiều câu hỏi về tác động xã hội, đạo đức và triết học của ChatGPT cần được xem xét. Do đó, rất cần sự lên tiếng, góp ý từ các nhà triết học, nhà khoa học xã hội, nghệ sĩ và người dân” - CTO của OpenAI nhấn mạnh.
Thừa nhận trí tuệ nhân tạo (AI) có thể bị sử dụng sai mục đích, hoặc bị kẻ xấu lợi dụng, bà Murati đặt vấn đề về tầm quan trọng của việc phải có quy định rõ ràng về quản lý sử dụng công nghệ AI trên phạm vi toàn cầu để bảo đảm phù hợp với các giá trị con người.
Theo bà, OpenAI nói riêng và các công ty công nghệ nói chung cần nêu cao nhận thức về việc sử dụng công nghệ AI một cách có kiểm soát và có trách nhiệm. Tuy nhiên, trước những tác động to lớn của trí tuệ nhân tạo đối với toàn xã hội, đòi hỏi các cơ quan quản lý, chính phủ và nhiều bên liên quan cần chung tay, cùng nhau tham gia tìm lời giải cho bài toán nêu trên.
Gửi phản hồi
In bài viết