Chatbot Bloopers tiết lộ gì về tương lai của AI

Author
nen1_800x450.jpg

Tuần trước Satya Nadella, Giám đốc điều hành của Microsoft, đã hân hoan nói với thế giới rằng công cụ tìm kiếm Bing mới được tích hợp AI sẽ “ làm cho Google nhảy múa ” bằng cách thách thức sự thống trị lâu dài của nó trong lĩnh vực tìm kiếm trên web.

Bing mới sử dụng một thứ gọi là ChatGPT —bạn có thể đã nghe nói về nó—điều này thể hiện một bước nhảy vọt đáng kể về khả năng xử lý ngôn ngữ của máy tính. Nhờ những tiến bộ trong học máy, về cơ bản, nó đã tự tìm ra cách trả lời tất cả các loại câu hỏi bằng cách ngấu nghiến hàng nghìn tỷ dòng văn bản, phần lớn được lấy từ web.

Trên thực tế, Google đã nhảy theo giai điệu của Satya bằng cách công bố Bard, câu trả lời của nó cho ChatGPT và hứa sẽ sử dụng công nghệ này trong các kết quả tìm kiếm của riêng mình. Baidu, công cụ tìm kiếm lớn nhất của Trung Quốc, cho biết họ đang nghiên cứu công nghệ tương tự .

Trong các bản trình diễn mà Microsoft đưa ra vào tuần trước , Bing dường như có khả năng sử dụng ChatGPT để đưa ra các câu trả lời phức tạp và toàn diện cho các truy vấn. Nó đưa ra lộ trình cho chuyến đi đến Thành phố Mexico, tạo ra các bản tóm tắt tài chính, đưa ra các đề xuất sản phẩm đối chiếu thông tin từ nhiều bài đánh giá và đưa ra lời khuyên về việc liệu một món đồ nội thất có vừa với một chiếc xe tải nhỏ hay không bằng cách so sánh các kích thước được đăng trực tuyến.

WIRED đã có một khoảng thời gian trong quá trình ra mắt để đưa Bing vào thử nghiệm và mặc dù nó có vẻ thành thạo trong việc trả lời nhiều loại câu hỏi, nhưng rõ ràng là nó bị trục trặc và thậm chí không chắc về tên của chính nó. Và như một chuyên gia tinh mắt đã nhận thấy, một số kết quả mà Microsoft đưa ra kém ấn tượng hơn so với ban đầu. Bing dường như bịa ra một số thông tin về hành trình du lịch mà nó tạo ra và nó đã bỏ qua một số chi tiết mà không ai có thể bỏ qua. Công cụ tìm kiếm cũng trộn lẫn các kết quả tài chính của Gap bằng cách nhầm lẫn tỷ suất lợi nhuận gộp với tỷ suất lợi nhuận gộp chưa điều chỉnh—một lỗi nghiêm trọng đối với bất kỳ ai dựa vào bot để thực hiện nhiệm vụ có vẻ đơn giản là tóm tắt các con số.

Nhiều vấn đề hơn đã xuất hiện trong tuần này, vì Bing mới đã được cung cấp cho nhiều người thử nghiệm beta hơn. Chúng dường như bao gồm cả việc tranh luận với người dùng về năm nay là năm nào và trải qua một cuộc khủng hoảng hiện sinh khi bị thúc đẩy chứng minh tình cảm của chính mình. Giá trị vốn hóa thị trường của Google đã giảm 100 tỷ đô la một cách đáng kinh ngạc sau khi ai đó nhận thấy lỗi trong các câu trả lời do Bard tạo ra trong video giới thiệu của công ty.

Tại sao những gã khổng lồ công nghệ này lại mắc phải những sai lầm ngớ ngẩn như vậy? Nó liên quan đến cách thức kỳ lạ mà ChatGPT và các mô hình AI tương tự thực sự hoạt động — và sự cường điệu phi thường của thời điểm hiện tại.

Điều khó hiểu và gây hiểu nhầm về ChatGPT và các mô hình tương tự là chúng trả lời các câu hỏi bằng cách đưa ra những phỏng đoán có tính giáo dục cao. ChatGPT tạo ra nội dung mà nó cho là nên tuân theo câu hỏi của bạn dựa trên các biểu diễn thống kê về ký tự, từ và đoạn văn. Công ty khởi nghiệp đằng sau chatbot, OpenAI, đã mài giũa cơ chế cốt lõi đó để đưa ra những câu trả lời thỏa mãn hơn bằng cách nhờ con người đưa ra phản hồi tích cực bất cứ khi nào mô hình tạo ra câu trả lời có vẻ đúng.

ChatGPT có thể gây ấn tượng và thú vị, bởi vì quá trình đó có thể tạo ra ảo tưởng về sự hiểu biết, điều này có thể hoạt động tốt trong một số trường hợp sử dụng. Nhưng quá trình tương tự sẽ "gây ảo giác" thông tin sai sự thật, một vấn đề có thể là một trong những thách thức quan trọng nhất trong công nghệ hiện nay.

Sự cường điệu và kỳ vọng mãnh liệt xoay quanh ChatGPT và các bot tương tự làm tăng nguy cơ. Khi các công ty khởi nghiệp được tài trợ tốt, một số công ty có giá trị nhất thế giới và các nhà lãnh đạo nổi tiếng nhất trong lĩnh vực công nghệ đều nói rằng chatbot là điều quan trọng tiếp theo trong tìm kiếm, nhiều người sẽ coi đó là phúc âm—thúc đẩy những người bắt đầu cuộc trò chuyện tăng gấp đôi với nhiều dự đoán hơn về sự toàn tri của AI. Không chỉ các chatbot mới có thể bị lạc lối do khớp mẫu mà không kiểm tra thực tế.

Nguồn: WIRED.

Chi tiết hơn, quý vị và các bạn đọc bài viết tại đây!
 
Last edited by a moderator:
Top