Щойно натрапив на щось дике під час сесії тестування моєї AI моделі. Не можу розкрити точне запитання, яке використав, але ось що сталося: задав навмисно складне запитання без правильної відповіді різним моделям.
Кожен з тих, що я протестував до цього часу? Вони всі впевнено видають щось, що звучить розумно. Знаєте, такий тип відповіді, який виглядає розумно, поки ви не усвідомите, що вони зовсім пропустили пастку.
Але ця остання флагманська модель, яку я спробував? Вперше в житті - вона справді зупинилась і сказала: "підожди, на це питання немає дійсної відповіді." Не намагалася вигадати якусь відповідь. Просто визнала логічну неможливість.
Чесно кажучи, вражений. Можу провести більше тестів, щоб побачити, чи це працює в різних типах хитромудрих запитань. Здатність розпізнавати невідповідні запити недооцінюється - це демонструє справжнє міркування, а не просте зіставлення шаблонів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
7
Репост
Поділіться
Прокоментувати
0/400
GasFeeNightmare
· 18год тому
чесно кажучи, це справжній прогрес, все інше - це вигадані історії
Переглянути оригіналвідповісти на0
SigmaValidator
· 18год тому
Ей, це дуже цікаво, нарешті є модель, яка сміливо визнає "я не знаю".
Переглянути оригіналвідповісти на0
ProofOfNothing
· 19год тому
Цей хлопець виміряв щось дуже цікаве, нарешті є модель, яка сміливо каже "я не знаю".
Переглянути оригіналвідповісти на0
0xSoulless
· 19год тому
Га, нарешті є модель, яка сміє сказати "Я не знаю", це справжній прогрес
Переглянути оригіналвідповісти на0
NFTPessimist
· 19год тому
Ось це справжній інтелект, а не пастка з жорстко закодованими відповідями.
Переглянути оригіналвідповісти на0
GasFeeCryer
· 19год тому
чесно кажучи, це справжній прогрес, а не вигадування даних для обману людей
Переглянути оригіналвідповісти на0
CafeMinor
· 19год тому
Я в шоці, нарешті є модель, яка наважилася сказати "Я не знаю", це справжній прогрес!
Щойно натрапив на щось дике під час сесії тестування моєї AI моделі. Не можу розкрити точне запитання, яке використав, але ось що сталося: задав навмисно складне запитання без правильної відповіді різним моделям.
Кожен з тих, що я протестував до цього часу? Вони всі впевнено видають щось, що звучить розумно. Знаєте, такий тип відповіді, який виглядає розумно, поки ви не усвідомите, що вони зовсім пропустили пастку.
Але ця остання флагманська модель, яку я спробував? Вперше в житті - вона справді зупинилась і сказала: "підожди, на це питання немає дійсної відповіді." Не намагалася вигадати якусь відповідь. Просто визнала логічну неможливість.
Чесно кажучи, вражений. Можу провести більше тестів, щоб побачити, чи це працює в різних типах хитромудрих запитань. Здатність розпізнавати невідповідні запити недооцінюється - це демонструє справжнє міркування, а не просте зіставлення шаблонів.