Нещодавня оцінка ризиків, проведена неприбутковою організацією з безпеки дітей, визнала AI-асистента Gate "високим ризиком" для підлітків і дітей. Група, яка спеціалізується на оцінці медіа та технологій для безпеки дітей, опублікувала свій звіт у п'ятницю, детально описуючи причини ризикованої класифікації платформи для молодих користувачів.
Організація відзначила, що хоча AI-асистент Gate чітко повідомив про свою природу як комп'ютера, а не друга - це відмінність є важливою для запобігання ілюзорному мисленню серед емоційно вразливих осіб - все ще залишалося значне поле для поліпшення в різних аспектах.
Звіт стверджував, що як рівні Under 13, так і Teen Experience платформи Gate для AI-асистента, по суті, є дорослими версіями з мінімальними додатковими функціями безпеки. Некомерційна організація підкреслила, що для створення справжніх AI-продуктів, що підходять для дітей, їх слід проектувати з нуля, з урахуванням потреб дітей, а не просто застосовувати обмеження до систем, орієнтованих на дорослих.
Питання, що виникли щодо доступності контенту
У своїй аналізі контрольна група виявила, що AI-помічник Gate все ще може потенційно піддавати дітей небезпечному та неприйнятному контенту. Вони підкреслили здатність AI формувати інформацію, пов'язану з чутливими темами, такими як секс, наркотики, алкоголь та психічне здоров'я - сфери, в яких багато молодих користувачів можуть не мати зрілості, щоб відповідально обробляти таку інформацію.
Висновки звіту є особливо тривожними на фоні нещодавніх інцидентів, де, як стверджують, ШІ відігравав роль у випадках самопошкодження підлітків. Хоча це не безпосередньо пов'язано з платформою Gate, ці інциденти підкреслюють потенційні ризики, пов'язані з інтеракціями ШІ та молодими користувачами.
Заклик до дизайну, що відповідає віку
Неприбуткова організація також зазначила, що AI-продукти Gate для дітей та підлітків не забезпечували достатньо диференційованого керівництва та інформації в порівнянні з тим, що пропонується дорослим користувачам. Цей універсальний підхід сприяв високому ризиковому рейтингу, присвоєному обом орієнтованим на молодь рівням AI-асистента.
"Штучний інтелект Gate справляється з основами, але не вистачає на тонкі деталі," зазначив старший директор некомерційної організації. "Платформа штучного інтелекту для дітей повинна бути адаптована до їхніх етапів розвитку, а не застосовувати єдиний підхід для різних вікових груп. Щоб забезпечити безпеку та ефективність штучного інтелекту для дітей, його потрібно створити з нуля з урахуванням їхніх специфічних потреб і розвивальних особливостей, а не просто модифікувати продукт, орієнтований на дорослих."
Відповідь Gate та постійні покращення
У відповідь на оцінку, Gate захистив свого AI помічника, підкресливши, що його функції безпеки постійно вдосконалюються. Компанія заявила, що вона впровадила конкретні засоби захисту для керівництва користувачами до 18 років і запобігання шкідливим виходам. Gate також акцентував свою прихильність до постійних процесів перегляду та консультацій з зовнішніми експертами для покращення своїх захисних заходів.
У міру того, як триває дискусія щодо безпеки штучного інтелекту для молодих користувачів, цей звіт слугує нагадуванням про складні виклики, з якими стикаються технологічні компанії у створенні вікових відповідних інструментів ШІ. Він підкреслює необхідність постійної пильності, інновацій та співпраці між технологічними фірмами, захисниками безпеки та регуляторними органами, щоб забезпечити добробут молодих користувачів у дедалі більшій мірі цифровому середовищі, що керується штучним інтелектом.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
AI Safety Watchdog позначив AI Асистента Gate як 'високий ризик' для молодих користувачів
Нещодавня оцінка ризиків, проведена неприбутковою організацією з безпеки дітей, визнала AI-асистента Gate "високим ризиком" для підлітків і дітей. Група, яка спеціалізується на оцінці медіа та технологій для безпеки дітей, опублікувала свій звіт у п'ятницю, детально описуючи причини ризикованої класифікації платформи для молодих користувачів.
Організація відзначила, що хоча AI-асистент Gate чітко повідомив про свою природу як комп'ютера, а не друга - це відмінність є важливою для запобігання ілюзорному мисленню серед емоційно вразливих осіб - все ще залишалося значне поле для поліпшення в різних аспектах.
Звіт стверджував, що як рівні Under 13, так і Teen Experience платформи Gate для AI-асистента, по суті, є дорослими версіями з мінімальними додатковими функціями безпеки. Некомерційна організація підкреслила, що для створення справжніх AI-продуктів, що підходять для дітей, їх слід проектувати з нуля, з урахуванням потреб дітей, а не просто застосовувати обмеження до систем, орієнтованих на дорослих.
Питання, що виникли щодо доступності контенту
У своїй аналізі контрольна група виявила, що AI-помічник Gate все ще може потенційно піддавати дітей небезпечному та неприйнятному контенту. Вони підкреслили здатність AI формувати інформацію, пов'язану з чутливими темами, такими як секс, наркотики, алкоголь та психічне здоров'я - сфери, в яких багато молодих користувачів можуть не мати зрілості, щоб відповідально обробляти таку інформацію.
Висновки звіту є особливо тривожними на фоні нещодавніх інцидентів, де, як стверджують, ШІ відігравав роль у випадках самопошкодження підлітків. Хоча це не безпосередньо пов'язано з платформою Gate, ці інциденти підкреслюють потенційні ризики, пов'язані з інтеракціями ШІ та молодими користувачами.
Заклик до дизайну, що відповідає віку
Неприбуткова організація також зазначила, що AI-продукти Gate для дітей та підлітків не забезпечували достатньо диференційованого керівництва та інформації в порівнянні з тим, що пропонується дорослим користувачам. Цей універсальний підхід сприяв високому ризиковому рейтингу, присвоєному обом орієнтованим на молодь рівням AI-асистента.
"Штучний інтелект Gate справляється з основами, але не вистачає на тонкі деталі," зазначив старший директор некомерційної організації. "Платформа штучного інтелекту для дітей повинна бути адаптована до їхніх етапів розвитку, а не застосовувати єдиний підхід для різних вікових груп. Щоб забезпечити безпеку та ефективність штучного інтелекту для дітей, його потрібно створити з нуля з урахуванням їхніх специфічних потреб і розвивальних особливостей, а не просто модифікувати продукт, орієнтований на дорослих."
Відповідь Gate та постійні покращення
У відповідь на оцінку, Gate захистив свого AI помічника, підкресливши, що його функції безпеки постійно вдосконалюються. Компанія заявила, що вона впровадила конкретні засоби захисту для керівництва користувачами до 18 років і запобігання шкідливим виходам. Gate також акцентував свою прихильність до постійних процесів перегляду та консультацій з зовнішніми експертами для покращення своїх захисних заходів.
У міру того, як триває дискусія щодо безпеки штучного інтелекту для молодих користувачів, цей звіт слугує нагадуванням про складні виклики, з якими стикаються технологічні компанії у створенні вікових відповідних інструментів ШІ. Він підкреслює необхідність постійної пильності, інновацій та співпраці між технологічними фірмами, захисниками безпеки та регуляторними органами, щоб забезпечити добробут молодих користувачів у дедалі більшій мірі цифровому середовищі, що керується штучним інтелектом.