Google cho biết lỗi xảy ra với Bard cho thấy sự cần thiết phải có quá trình thử nghiệm nghiêm ngặt với chatbot AI.
(Ảnh: Shuttlestock)
Cụ thể, trong video demo các tính năng của Bard có một câu trả lời sai khi cho rằng kính viễn vọng không gian James Webb của NASA đã được sử dụng để chụp những bức ảnh đầu tiên về một hành tinh bên ngoài hệ Mặt trời, hay còn gọi là các ngoại hành tinh.
Theo Cơ quan Hàng không và Vũ trụ Mỹ, hình ảnh đầu tiên về một ngoại hành tinh thực chất được chụp bởi kính viễn vọng Very Large của Đài thiên văn phía Nam châu Âu (ESO) gần hai thập kỷ trước, vào năm 2004.
Sai lầm của Bard đặt ra thách thức lớn đối với Google khi hãng này đang chạy đua để tích hợp công nghệ AI đứng sau chatbot ChatGPT vào công cụ tìm kiếm cốt lõi của mình (Google Search).
Cũng giống ChatGPT, Bard được xây dựng trên một mô hình ngôn ngữ lớn được đào tạo bởi kho dữ liệu trực tuyến khổng lồ để đưa ra câu trả lời thuyết phục cho truy vấn của người dùng. Tuy nhiên, các chuyên gia từ lâu đã cảnh báo rằng những công cụ này có khả năng lan truyền thông tin sai sự thật.
Nhằm xoa dịu những lo ngại trên, Google trước đó cho biết Bard sẽ được thử nghiệm bởi một nhóm người dùng “đáng tin cậy” trong tuần này trước khi chính thức đến tay công chúng trong một vài tuần tới.
“Sự cố mới đây nhấn mạnh tầm quan trọng của việc triển khai quá trình thử nghiệm nghiêm ngặt đối với chatbot AI. Chúng tôi sẽ kết hợp phản hồi từ bên ngoài với thử nghiệm nội bộ để bảo đảm các phản hồi của Bard đáp ứng tiêu chuẩn cao về chất lượng, độ an toàn và tính chính xác của thông tin” - một phát ngôn viên của Google nói.
Tuy nhiên, sự hớ hênh của Google đã làm gia tăng mối lo ngại rằng “gã khổng lồ” tìm kiếm trực tuyến này đang mất dần vị thế trong lĩnh vực quan trọng của mình vào tay Microsoft, đối thủ cạnh tranh đứng sau hậu thuẫn ChatGPT. Vừa qua, Microsoft thông báo họ sẽ tung ra một phiên bản mới của công cụ tìm kiếm Bing, được hỗ trợ bởi công nghệ AI làm nền tảng cho ChatGPT.
Vậy điều gì đã xảy ra với bản demo của Bard và nó nói lên điều gì về hy vọng AI sẽ tạo ra cuộc cách mạng đối với thị trường tìm kiếm trên internet?
Bard và ChatGPT chính xác là gì?
Đây là 2 chatbot dựa trên các mô hình ngôn ngữ lớn (LLM), vốn là các ‘mạng nơ-ron nhân tạo’ lấy cảm hứng từ các mạng nơ-ron trong não người.
“Mạng nơ-ron được lấy cảm hứng từ các cấu trúc tế bào xuất hiện trong não và hệ thần kinh của động vật, được cấu trúc thành các mạng lưới liên kết chặt chẽ với nhau, với mỗi thành phần thực hiện một nhiệm vụ rất đơn giản và giao tiếp với số lượng lớn các tế bào khác” - Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford cho biết.
Theo ông Wooldridge, các nhà nghiên cứu mạng nơ-ron không cố gắng “xây dựng bộ não nhân tạo theo đúng nghĩa đen mà đang sử dụng các cấu trúc lấy cảm hứng từ những gì chúng ta thấy trong não động vật”.
Các mô hình ngôn ngữ lớn này được đào tạo dựa trên các tập dữ liệu (dataset) khổng lồ lấy từ internet để đưa ra các câu trả lời bằng văn bản nghe có vẻ hợp lý cho một loạt câu hỏi. Phiên bản ChatGPT ra mắt công chúng vào cuối tháng 11/2022 đã nhanh chóng gây chú ý với khả năng viết đơn xin việc, chia nhỏ các tài liệu dài và thậm chí sáng tác thơ.
Tại sao Bard đưa ra một câu trả lời không chính xác?
Theo các chuyên gia, chatbot có thể lặp lại những lỗi đã tồn tại sẵn trong các tập dữ liệu, như trường hợp gặp phải trong bản demo về Bard. Tiến sĩ Andrew Rogoyski, Giám đốc Viện trí tuệ nhân tạo lấy con người làm trung tâm tại Đại học Surrey (Vương quốc Anh), cho biết các mô hình AI được đào tạo dựa trên các bộ dữ liệu nguồn mở (open-source) khổng lồ vốn có chứa các lỗi.
“Về bản chất, những nguồn dữ liệu mở có tồn tại những thiên lệch và thông tin không chính xác, sau đó được các mô hình AI kế thừa. Trong câu trả lời truy vấn mà chatbot đưa ra cho người dùng có thể bao gồm cả những thiên kiến này. Đây là một vấn đề vẫn chưa được giải quyết thỏa đáng” - ông Rogoyski cho hay.
Mô hình ngôn ngữ lớn được cung cấp một tập dữ liệu bao gồm hàng tỷ từ, và xây dựng một mô hình dựa trên xác suất thống kê, gồm các từ và câu thường sắp xếp theo đúng trình tự trước đó của văn bản. Như giáo sư Michael Wooldridge từng nói: “Các mạng nơ-ron không hề có khái niệm thế nào là ‘đúng’ hay ‘sai’. Chúng chỉ đơn giản tạo ra văn bản phù hợp nhất có thể để trả lời các câu hỏi hoặc lời nhắc của người dùng. Do đó, việc các mô hình ngôn ngữ lớn mắc lỗi là điều không tránh khỏi”.
Không chỉ với Bard, người dùng ChatGPT cũng gặp phải tình trạng tương tự khi một số truy vấn của họ trên chatbot này nhận lại kết quả không chính xác.
Các phần mềm AI khác có từng sai không?
Câu trả lời là có. Năm 2016, Microsoft đã từng phải đưa ra lời xin lỗi sau khi công cụ chatbot trên Twitter, có tên gọi là Tay, bắt đầu tạo ra các thông điệp phân biệt chủng tộc và phân biệt giới tính. Đối mặt với hàng loạt bài đăng giận dữ từ phía người dùng, Microsoft cuối cùng buộc phải đóng lại chatbot này.
Meta của Mark Zuckerberg năm ngoái cũng ra mắt một AI hội thoại có tên gọi BlenderBot. Trong quá trình trả lời truy vấn của người dùng, chatbot này phản hồi rằng nó đã xóa tài khoản Facebook của mình sau khi biết về các vụ bê bối của công ty liên quan đến quyền riêng tư. “Kể từ khi xóa Facebook, cuộc sống của tôi đã tốt hơn nhiều” - BlenderBot đưa ra câu trả lời trong hộp thoại.
Các chatbot và việc tìm kiếm dựa trên AI có đang bị thổi phồng quá mức hay không?
Trí tuệ nhân tạo (AI) không phải là khái niệm mới. Nó đã được triển khai bởi Google (như Google Dịch) và các công ty công nghệ khác. “Cơn sốt” mà ChatGPT của OpenAI tạo ra trong thời gian qua (đạt hơn 100 triệu người dùng chỉ trong vòng 2 tháng) cho thấy, nhu cầu của công chúng đối với “Generative AI” - hệ thống trí tuệ nhân tạo, tạo ra các nội dung mới như văn bản, hình ảnh, âm thanh dựa trên những mẫu đã học được từ dữ liệu sẵn có, là vô cùng lớn.
Các “ông lớn” công nghệ như Microsoft, Google và nhà phát triển ChatGPT, OpenAI có đủ nguồn lực cả về chất xám và tài chính để giải quyết những vấn đề này.
Tuy nhiên, các chatbot và tìm kiếm được hỗ trợ bởi AI đòi hỏi sức mạnh máy tính và chi phí rất lớn để vận hành. Điều này làm dấy lên nghi ngờ về mức độ khả thi của việc cung cấp các sản phẩm như vậy trên quy mô toàn cầu cho tất cả người dùng.
Tiến sĩ Andrew Rogoyski (Đại học Surrey, Vương quốc Anh) cho biết: “‘Big AI’ thực sự không bền vững. ‘Generative AI’ và các mô hình ngôn ngữ lớn đang thực hiện một số điều phi thường nhưng chúng vẫn chưa đủ thông minh khi không hiểu những kết quả mà chúng tạo ra và không có tính bổ sung về mặt chuyên sâu hoặc ý tưởng”.
Ông cho rằng, đây là một phần trong cuộc đua tranh giữa các thương hiệu, tận dụng mối quan tâm hiện tại đối với ‘Generative AI’ để vẽ lại các ranh giới.
Bất chấp ý kiến trái chiều từ phía chuyên gia, các “đại gia” công nghệ gồm Google và Microsoft vẫn tin rằng công nghệ AI sẽ tiếp tục phát triển vượt bậc ngay cả khi thi thoảng phải đối mặt với những “cú vấp ngã”.
Gửi phản hồi
In bài viết