La Chine rejoint la poussée mondiale pour la réglementation du contenu de l'IA

La Chine rejoint la poussée mondiale pour la réglementation du contenu de l'IA

De nombreuses entités internationales font pression pour une meilleure réglementation du contenu généré par l'IA sur Internet – et le gouvernement chinois est le dernier à régner sur l'utilisation de la technologie en développement rapide.

Selon Bloomberg, plusieurs ministères du gouvernement se sont joints à l'administration chinoise de Watchdog Cyperspace de Chine (CAC) pour annoncer un nouveau mandat qui obligera les utilisateurs d'Internet à identifier tout contenu généré par l'IA en tant que tel dans une description ou un codage de métadonnées.

Cet effort vise à empêcher Internet de la Chine de devenir saturé de faux contenu et de désinformation nocive. Le mandat devrait prendre effet en septembre et sera réglementé au niveau des services Internet, a noté le South China Morning Post.

« La loi d'étiquetage aidera les utilisateurs à identifier la désinformation et à tenir les fournisseurs de services responsables de l'étiquetage de leur contenu. Il s'agit de réduire les abus de contenu généré par l'IA », a écrit le CAC dans un communiqué, tel que traduit par Bloomberg.

La Chine n'est pas la seule entité gouvernementale à avoir sérieusement pris en charge le contenu généré par l'IA en ligne. L'Union européenne a créé la loi sur l'IA en 2024, en tant que «tout premier cadre juridique sur l'IA, qui aborde les risques de l'IA et positionne l'Europe pour jouer un rôle de premier plan dans le monde.»

En action, les utilisateurs devront clairement comprendre leur intention de partager du contenu généré par l'IA, et ceux qui tentent de modifier les étiquettes de contenu d'IA publiées pourraient être soumises à des pénalités par leurs fournisseurs de services Internet, a ajouté le South China Morning Post.

Cependant, le futurisme a noté qu'à mesure que le contenu de l'IA devient plus réaliste, il peut devenir plus difficile pour que du contenu réel et faux soit identifié avec précision.

Alors que l'ancien président Joe Biden a précédemment créé un décret exécutif en 2023 faisant la promotion de l'utilisateur d'une IA sûre, sécurisée et digne de confiance, l'actuel président Donald Trump a depuis abrogé cet ordre.

Malgré cela, plusieurs grandes sociétés technologiques, dont Google, Meta, Anthropic, Amazon et OpenAI, ont également signé un engagement en 2023, indiquant leur engagement envers l'IA responsable avec les systèmes de filigrane pour leurs technologies. Pour l'instant, il n'y a pas de mot sur l'endroit où se trouvent les entreprises sur cet engagement.

Bien que la lutte contre le contenu généré par l'AI a été un problème persistant depuis que l'industrie a popularisé, les nouvelles récentes ont indiqué que les utilisateurs de X et Reddit utilisent le modèle Flash Gemini 2.0 de Google pour éliminer les filigranes des images protégées par le droit d'auteur. Cela soulève des problèmes éthiques et potentiellement juridiques pour ceux qui expérimentent l'astuce. C'est un rappel des raisons pour lesquelles les garanties de l'IA sont une très bonne idée.

Rate this post
Total
0
Shares
Previous Post
Le changement de marque d'Openai est censé faire apparaître l'entreprise «plus humaine»

Openai sort un nouveau modèle d'IA, mais c'est cher

Next Post
Le Google Pixel 9a est là avec un nouveau look surprenant

Le Google Pixel 9a est là avec un nouveau look surprenant

Related Posts