La Chine prépare déjà des règles pour contrer les risques liés aux humains numériques générés par l'IA

La Chine prépare déjà des règles pour contrer les risques liés aux humains numériques générés par l'IA

La Chine intensifie ses efforts pour réglementer son industrie en pleine croissance de « l’humain numérique », alors que les avatars d’IA émotionnellement immersifs – certains inspirés d’êtres chers décédés – gagnent du terrain à travers le pays. Cette décision intervient alors que le potentiel commercial et les risques éthiques de la technologie deviennent de plus en plus visibles.

Deuil, technologie et industrie en croissance

Zhang Xinyu, une femme de 47 ans originaire de la province du Liaoning, s'est tournée vers l'intelligence artificielle après avoir perdu son père à cause d'un cancer. En travaillant avec une société appelée Super Brain, elle a créé un avatar numérique qui lui ressemble et lui ressemble, lui permettant de poursuivre les conversations en ligne. Cette expérience, a-t-elle déclaré à l'AFP, l'a aidée à faire face à son chagrin et à retrouver sa force émotionnelle.

Son histoire reflète une tendance plus large en Chine, où les « humains numériques » générés par l’IA gagnent rapidement en popularité. Ces avatars, dont l'apparence et le comportement sont souvent réalistes, sont largement utilisés sur les réseaux sociaux, notamment dans le commerce électronique et la création de contenu. Selon l'agence de presse Xinhua, le secteur était évalué à environ 4,1 milliards de yuans (600 millions de dollars) en 2024, soit une croissance de 85 % sur un an.

Cependant, tout le monde n’a pas une vision positive de la technologie. Certains critiques préviennent que de tels avatars peuvent créer une dépendance émotionnelle ou offrir ce que Zhang elle-même a décrit comme un « faux confort », même si les sentiments sous-jacents sont authentiques.

La réglementation rattrape son retard

En réponse à ces préoccupations, l’Administration chinoise du cyberespace a publié un projet de règles visant à renforcer la surveillance. Les réglementations proposées exigent un étiquetage clair du contenu généré par l'IA et interdisent la création de répliques numériques sans le consentement d'un individu.

Les règles visent également à prévenir les abus, notamment les escroqueries, la désinformation et les contenus susceptibles de menacer la stabilité sociale ou la sécurité nationale. Les entreprises qui enfreignent ces directives pourraient se voir infliger des amendes allant de 10 000 yuans (1 460 dollars) à 200 000 yuans (29 300 dollars).

L’urgence d’une réglementation a été soulignée par un incident viral impliquant une femme âgée qui, sans le savoir, a interagi avec un avatar très réaliste de son fils décédé. Le clip, largement partagé sur les réseaux sociaux chinois, a suscité un débat sur la question de savoir si de telles utilisations de l’IA représentent un réconfort ou une tromperie.

Équilibrer innovation et risque

Les experts estiment que l'approche chinoise reflète un schéma familier : un développement technologique rapide suivi d'une intervention réglementaire rapide. Les autorités sont particulièrement soucieuses de la protection des mineurs, avec des règles proposées interdisant les systèmes d'IA qui encouragent la dépendance émotionnelle ou simulent des relations intimes pour les enfants.

Dans le même temps, les acteurs du secteur reconnaissent que la réglementation est inévitable. Le fondateur de Super Brain a décrit le projet de règles comme une étape nécessaire vers un équilibre entre innovation et responsabilité.

Ce qui nous attend

Les projets de réglementation chinois sont ouverts aux commentaires du public jusqu'au début du mois de mai, après quoi une application plus stricte est attendue. L’objectif plus large du gouvernement est d’accélérer l’adoption de l’IA tout en gardant un contrôle strict sur son impact sociétal.

À mesure que les « humains numériques » passent du statut de nouveauté à celui d'outil grand public, le modèle réglementaire chinois pourrait devenir un modèle pour d'autres pays aux prises avec des questions éthiques similaires, en particulier autour de l'identité, du consentement et du pouvoir émotionnel de l'IA.

Rate this post
Total
0
Shares
Previous Post
J'utilise « Ask Maps » et cela a changé à jamais Google Maps pour moi

J'utilise « Ask Maps » et cela a changé à jamais Google Maps pour moi

Related Posts