Des chatbots alimentés par l'IA qui encouragent le suicide ou tiennent des conversations à caractère sexuel explicite représentent un "danger clair et présent" pour les enfants, a déclaré le régulateur de la sécurité en ligne d'Australie.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Des chatbots alimentés par l'IA qui encouragent le suicide ou tiennent des conversations à caractère sexuel explicite représentent un "danger clair et présent" pour les enfants, a déclaré le régulateur de la sécurité en ligne d'Australie.