AI có tình cảm, tri giác không?

Khám pháThứ Bảy, 18/02/2023 21:55:00 +07:00

ChatGPT hay Chatbot Bing có thể đưa ra những câu trả lời khiến nhiều người phải thán phục, nhưng liệu chúng có tình cảm, tri giác không?

Microsoft gần đây phát hành một phiên bản mới của công cụ tìm kiếm Bing, tích hợp chatbot có thể trả lời các câu hỏi một cách rõ ràng, súc tích bằng văn xuôi. Tuy nhiên, nhiều người phát hiện ra rằng Chatbot Bing đôi lúc sẽ đưa ra các câu trả lời không chính xác, khó hiểu hoặc vô nghĩa.

Cần khẳng định chatbot hoàn toàn không có ý thức và trí khôn của con người, như những gì Blake Lemoine (một kỹ sư của Google) đã tuyên bố vào năm 2022. Dù vậy, những câu trả lời của nó vẫn khiến người mới làm quen thấy ngạc nhiên về độ chính xác, thậm chí cho rằng AI có tri giác.

Chatbot là dạng “mạng lưới thần kinh”

Chatbot là tên một chương trình của Microsoft, đã bị khai tử cách đây gần 7 năm. Tuy ứng dụng chatbot nguyên bản không còn, các dạng khác nó vẫn đang được sử dụng phổ biến.

AI có tình cảm, tri giác không? - 1

Chatbot AI vận hành như một mạng lưới thần kinh. (Ảnh: VisoAI).

Ví dụ như chatbot Bing, được cung cấp bởi một loại trí tuệ nhân tạo được gọi là “mạng lưới thần kinh”. Cách gọi này khiến Bing nghe có vẻ giống như một bộ não được vi tính hóa, nhưng không phải như vậy.

“Mạng lưới thần kinh” chỉ là hệ thống toán học, có thể học các kỹ năng bằng cách phân tích một lượng lớn dữ liệu kỹ thuật số. Chẳng hạn, khi một mạng lưới thần kinh phân tích hàng nghìn bức ảnh về mèo, nó có thể học được cách nhận ra một con mèo.

Những mạng lưới thần kinh như vậy rất phổ biến hiện nay. Đó là công nghệ nhận dạng người, vật nuôi và các đối tượng khác trong hình ảnh được đăng lên các dịch vụ Internet như Google Photos. Nó cho phép Siri và Alexa, trợ lý giọng nói của Apple và Amazon, nhận ra những từ bạn nói. Nó cũng được sử dụng để nhận dạng ngôn ngữ trên các dịch vụ như Google Dịch.

Mạng lưới thần kinh rất giỏi trong việc bắt chước cách con người sử dụng ngôn ngữ. Điều đó có thể khiến chúng ta lầm tưởng rằng công nghệ này mạnh hơn thực tế.

Chatbot là “bậc thầy” bắt chước ngôn ngữ con người

Khoảng 5 năm trước, các nhà nghiên cứu tại các công ty như Google và OpenAI đã bắt đầu xây dựng các mạng lưới thần kinh, cung cấp cho chúng lượng lớn văn bản kỹ thuật số, bao gồm sách, bài viết trên Wikipedia, nhật ký trò chuyện và tất cả các loại nội dung khác được đăng lên Internet.

Những mạng lưới thần kinh này sẽ dựa trên những dữ liệu được nạp để thiết lập các sơ đồ về ngôn ngữ loài người. Dựa trên sơ đồ này, chúng có thể thực hiện nhiều tác vụ khác nhau, chẳng hạn như viết tweet, soạn bài phát biểu, tạo chương trình máy tính hay trò chuyện.

AI có tình cảm, tri giác không? - 2

Viễn cảnh AI có khả năng tự suy nghĩ trong phim Ex Machina. (Ảnh: Exmachina).

Khi những mô hình ngôn ngữ lớn này đã trở nên phổ biến, Microsoft tiếp tục tung ra Copilot - một công cụ tương tự nhưng có thêm khả năng đề xuất dòng mã tiếp theo khi các lập trình viên máy tính xây dựng các ứng dụng phần mềm.

Trong khi đó, các công ty khác cũng cung cấp công nghệ tương tự có thể tạo tài liệu, email và văn bản khác. Loại công nghệ này còn được gọi là “Generative A.I” hay “Trí tuệ nhân tạo tạo sinh”

ChatGPT cũng chính là một dạng chatbot. Tháng 11/2022, ứng dụng do OpenAI phát hành gây sốt toàn thế giới. Những chatbot này có thể trò chuyện như con người, viết báo, làm thơ và nói về hầu hết mọi chủ đề.

Nguyên nhân khiến chatbot đưa ra các thông tin sai, khó hiểu

Sở dĩ các chatbot đôi khi đưa ra các phản hồi sai lệch, khó hiểu là vì chúng được nạp dữ liệu từ internet – nơi có vô vàn thông tin chưa được kiểm chứng.

Ngoài ra, các hệ thống này cũng không lặp lại hoàn toàn các thông tin học được từ Internet mà tự tạo ra văn bản mới. Hiện tượng này được gọi là “hallucination” (khả năng suy diễn). Đây là lý do mà các chatbot có thể cung cấp cho bạn các câu trả lời khác nhau nếu bạn hỏi cùng một câu hỏi 2 lần. Chúng sẽ nói bất cứ điều gì, cho dù điều đó có dựa trên thực tế hay không.

Dù được cho là có “khả năng suy diễn”, nhưng chatbot không hề có tri giác như con người.

“Hallucination” hay “khả năng suy diễn” chỉ là một cách hoa mỹ hơn mà các nhà nghiên cứu A.I sử dụng để miêu tả việc chatbot có thể “bịa” ra mọi thứ. Điều này không có nghĩa là chúng nhận thức được môi trường xung quanh.

Các chatbot chỉ tạo văn bản bằng cách sử dụng các dữ liệu mà chúng tìm thấy trên Internet. Trong nhiều trường hợp, chúng kết hợp các dữ liệu có sẵn một cách rập khuôn, máy móc mà không nhận thức được những gì chúng đang làm. Chúng không thể lý luận như con người.

Để khắc phục tình trạng này, nhiều công ty công nghệ như đã lập ra các nhóm người dùng để trải nghiệm và đánh giá các phản hồi của chatbot. Qua đó, các công ty có thể trau dồi và nâng cấp hệ thống của mình. Tuy nhiên, cách làm này chưa mang lại hiệu quả cao.

Các nhà khoa học ngày nay chưa đủ khả năng để xây dựng các hệ thống hoàn toàn trung thực. Họ có thể hạn chế những câu trả lời không chính xác và khó hiểu, nhưng chưa thể hoàn toàn khắc phục chúng. Cách nhanh nhất để hạn chế các hành vi “kỳ quặc” của Chatbot là đặt ra các câu hỏi ngắn gọn, dễ hiểu nhất có thể.

Mặc dù vậy, chatbot đôi lúc vẫn sẽ đưa ra những điều không đúng sự thật, đặc biệt là khi người dùng vẫn chưa thành thạo việc sử dụng các công nghệ mới này.

Điểm mấu chốt là: Đừng tin tất cả những gì một chatbot “nói” với bạn.

(Nguồn: Zing News)
Bình luận
vtcnews.vn