Mới gặp phải điều gì đó hoang dã trong buổi thử nghiệm mô hình AI của tôi. Không thể thả câu hỏi chính xác mà tôi đã sử dụng, nhưng đây là những gì đã xảy ra: đã ném một câu hỏi cố tình khó với không có câu trả lời đúng vào nhiều mô hình.
Mỗi cái mà tôi đã thử cho đến nay? Tất cả đều tự tin đưa ra cái gì đó nghe có vẻ hợp lý. Bạn biết đấy, loại phản hồi trông thông minh cho đến khi bạn nhận ra họ hoàn toàn bỏ lỡ cái bẫy.
Nhưng mẫu flagship mới nhất mà tôi đã thử? Lần đầu tiên - nó thực sự dừng lại và nói "chờ đã, câu hỏi này không có câu trả lời hợp lệ." Nó không cố gắng lảng tránh. Chỉ đơn giản thừa nhận sự không thể về mặt logic.
Thật sự ấn tượng. Có thể sẽ thực hiện thêm nhiều thử nghiệm để xem điều này có giữ vững qua các loại câu hỏi đánh lừa khác nhau không. Khả năng nhận diện các câu hỏi không thể trả lời là điều không được đánh giá cao - cho thấy lý luận thực sự so với việc khớp mẫu.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
20 thích
Phần thưởng
20
7
Đăng lại
Retweed
Bình luận
0/400
GasFeeNightmare
· 19giờ trước
thật sự đây mới là tiến bộ thực sự, những cái khác chỉ là bịa chuyện
Xem bản gốcTrả lời0
SigmaValidator
· 19giờ trước
Ê, cái này thú vị ghê, cuối cùng cũng có mô hình dám thừa nhận "tôi không biết".
Xem bản gốcTrả lời0
ProofOfNothing
· 19giờ trước
Thằng này đo được cái gì đó hay phết, cuối cùng cũng có mô hình dám nói "Tôi không biết".
Xem bản gốcTrả lời0
0xSoulless
· 19giờ trước
Ha, cuối cùng cũng có mô hình dám nói "ta không biết" rồi, đây mới là tiến bộ thực sự.
Xem bản gốcTrả lời0
NFTPessimist
· 19giờ trước
Đây mới là trí tuệ thực sự, không phải bẫy câu trả lời cứng.
Xem bản gốcTrả lời0
GasFeeCryer
· 19giờ trước
Nói thật, đây mới là sự tiến bộ thực sự, không phải là bịa đặt dữ liệu để lừa người.
Xem bản gốcTrả lời0
CafeMinor
· 19giờ trước
Tôi bực, cuối cùng cũng có mô hình dám nói "Tôi không biết" rồi, đây mới thực sự là tiến bộ!
Mới gặp phải điều gì đó hoang dã trong buổi thử nghiệm mô hình AI của tôi. Không thể thả câu hỏi chính xác mà tôi đã sử dụng, nhưng đây là những gì đã xảy ra: đã ném một câu hỏi cố tình khó với không có câu trả lời đúng vào nhiều mô hình.
Mỗi cái mà tôi đã thử cho đến nay? Tất cả đều tự tin đưa ra cái gì đó nghe có vẻ hợp lý. Bạn biết đấy, loại phản hồi trông thông minh cho đến khi bạn nhận ra họ hoàn toàn bỏ lỡ cái bẫy.
Nhưng mẫu flagship mới nhất mà tôi đã thử? Lần đầu tiên - nó thực sự dừng lại và nói "chờ đã, câu hỏi này không có câu trả lời hợp lệ." Nó không cố gắng lảng tránh. Chỉ đơn giản thừa nhận sự không thể về mặt logic.
Thật sự ấn tượng. Có thể sẽ thực hiện thêm nhiều thử nghiệm để xem điều này có giữ vững qua các loại câu hỏi đánh lừa khác nhau không. Khả năng nhận diện các câu hỏi không thể trả lời là điều không được đánh giá cao - cho thấy lý luận thực sự so với việc khớp mẫu.