Mình sẽ trích dẫn ở đây quan điểm của thầy Andrew về ChatGPT công cụ học máy đang được cho là trấn động giới nghiên cứu AI gần đây.

Playing with ChatGPT, the latest language model from OpenAI, I found it to be an impressive advance from its predecessor GPT-3. Occasionally it says it can’t answer a question. This is a great step! But, like other LLMs, it can be hilariously wrong. Work lies ahead to build systems that can express different degrees of confidence.

For example, a model like Meta’s Atlas or DeepMind’s RETRO that synthesizes multiple articles into one answer might infer a degree of confidence based on the reputations of the sources it draws from and the agreement among them, and then change its communication style accordingly. Pure LLMs and other architectures may need other solutions.

If we can get generative algorithms to express doubt when they’re not sure they’re right, it will go a long way toward building trust and ameliorating the risk of generating misinformation.

Keep learning!

Andrew

Khi dùng ChatGPT, mô hình học máy mới nhất của OpenAI, tôi thấy đây là một bước tiến ấn tượng so với người tiền nhiệm GPT-3. Đôi khi nó nói rằng nó không thể trả lời một câu hỏi. Đây là một bước tuyệt vời! Tuy nhiên, giống như các LLM khác, nó có thể sai một cách buồn cười hoặc ngớ ngẩn.




Công việc còn ở phía trước là xây dựng các hệ thống có thể thể hiện các mức độ tin cậy khác nhau.

Ví dụ: một mô hình như Atlas của Meta hoặc RETRO của DeepMind tổng hợp nhiều bài viết thành một câu trả lời có thể suy ra mức độ tin cậy dựa trên danh tiếng của các nguồn mà nó rút ra và sự đồng thuận giữa các nguồn đó, sau đó thay đổi phong cách giao tiếp của nó cho phù hợp. LLM thuần túy và các kiến ​​trúc khác có thể cần các giải pháp khác.

Nếu chúng ta có thể sử dụng các thuật toán tổng quát để bày tỏ sự nghi ngờ khi chúng không chắc mình đúng, thì đó sẽ là một chặng đường dài hướng tới việc xây dựng lòng tin và giảm thiểu nguy cơ tạo ra thông tin sai lệch.

Tiếp tục học tập!

Andrew

LEAVE A REPLY

Please enter your comment!
Please enter your name here