Un sénateur australien qualifie les principaux acteurs du secteur de l'IA de « pirates » qui pillent les données et la culture
il réclame des lois pour protéger les moyens de subsistance des créateurs
Une commission sénatoriale australienne dénonce l'exploitation sans transparence des données pour la formation de l'IA. Dans un récent rapport d'enquête, elle qualifie les entreprises technologiques de « pirates qui pillent la culture, les données et la créativité à leur profit, tout en laissant les créateurs les mains vides ». Elle a formulé 13 recommandations qui préconisent la protection des travailleurs et une rémunération équitable pour les créateurs dans le cadre de la formation à l'IA. Meta, Google et Amazon ont refusé d'expliquer à la commission la manière dont les données des utilisateurs sont utilisées pour le développement et la formation de l'IA.
Les entreprises spécialisées dans l'IA qualifiée de pirates de données et de la culture
L'enquête a été menée par une commission sénatoriale bipartisane. Elle porte sur l'adoption de l'IA et sur les conséquences et les possibilités qu'elle pourrait présenter. Les auteurs ont jugé les conclusions accablantes et appellent à une levée de boucliers contre les pratiques des entreprises qui développent l'IA. Les enquêteurs rapportent que « les fabricants de chatbots d'IA ont commis un vol sans précédent à l'encontre de l'industrie créative en Australie ».
Tony Sheldon, sénateur travailliste qui a dirigé l'enquête, a déclaré : « ces entreprises qui poussent à l'IA pillent notre culture, nos données et notre créativité à leur profit tout en laissant les Australiens les mains vides ». L'enquête ne débouchera pas sur des résultats immédiats, mais elle a permis à cette commission bipartisane de formuler 13 recommandations sur la manière dont le gouvernement australien peut s'attaquer à l'IA et aux pratiques des entreprises.
Une grande partie de ces recommandations concerne la protection des travailleurs dans différents secteurs. Les enquêteurs estiment que les principaux chatbots d'IA tels que ChatGPT d'OpenAI et Gemini de Google devraient automatiquement être considérés comme des outils « à haut risque » qui pourraient commencer à mettre des gens au chômage. Ils appellent à la mise en œuvre d'une nouvelle « loi sur l'IA », reflétant la voie suivie par l'UE et le Royaume-Uni.
Il est important de noter que la commission n'est pas unanime sur tous les points. Linda Reynolds, sénatrice du parti libéral, et James McGrath, du parti national libéral du Queensland, ne sont pas d'accord sur le fait que l'IA devrait être qualifiée de « à haut risque » en ce qui concerne les personnes au travail. Ils s'accordent à dire que l'IA représente une menace plus importante pour les efforts du pays en matière de cybersécurité que pour l'industrie de la création.
La commission fustige les réponses délibérément vagues des entreprises interrogées
La commission a remis son rapport final après neuf mois d'auditions. Au cours de l'enquête, Meta, Google et Amazon ont tous refusé de révéler comment les données collectées à partir de leurs produits (comme WhatsApp et Alexa) permettent d'entraîner l'IA. Meta a fait savoir qu'il collecte ces données depuis 2007, mais il n'a pas pu expliquer clairement comment il a permis aux utilisateurs d'y consentir si les produits d'IA en question n'existaient pas en 2007.
« Interrogées sur la manière dont elles utilisent les données [personnelles ou privées] pour entraîner leurs produits d'IA, les plateformes ont donné des réponses largement opaques », peut-on lire dans le rapport. Ainsi, lorsqu'on lui a demandé si les données audio capturées par les appareils Alexa avaient été utilisées pour l'entraînement de l'IA, Matt Levey, responsable de la politique publique d'Amazon, aurait dit qu'il répondrait plus tard, mais il ne l'a jamais fait.
« Ce refus de répondre directement aux questions est un thème récurrent dans les réponses reçues d'Amazon, de Meta et de Google », ajoute le rapport. Le sénateur travailliste Tony Sheldon a comparé l'esquive des dirigeants des Big Tech à « un tour de magie bon marché ». « Beaucoup d'agitation, une bouffée de fumée, et rien à montrer au bout du compte », a déclaré le sénateur Tony Sheldon dans une déclaration rapportée par le Sydney Morning Herald.
Les modèles d'IA sont formés par l'ingestion de grandes quantités de données. Dans le cas des grands modèles de langage (LLM), comme Gemini ou ChatGPT, l'IA récupère ensuite ces données pour construire ses réponses. Nvidia a été pris en flagrant délit en train de former une IA sur des milliers d'heures de Netflix et de YouTube, tandis qu'OpenAI a admis qu'il n'est pas possible de créer des produits d'IA tels que ChatGPT sans enfreindre le droit d'auteur.
Les moyens de subsistance des créateurs menacés par les outils d'IA générative
Selon le rapport, les travailleurs créatifs australiens étaient les plus menacés par l'IA, ce qui aurait un impact considérable sur leurs moyens de subsistance. Les preuves fournies par l'Australian Association of Voice Actors (ASA) ont montré que leurs contrats prévoyaient le droit pour l'entreprise d'utiliser leurs voix pour créer des livres audio avec l'IA. Des conditions de contrats qui font l'objet de controverses dans toute l'industrie cinématographique mondiale.
L'ASA a accueilli favorablement le rapport de l'enquête et a déclaré qu'elle reconnaissait « le besoin urgent d'une nouvelle législation globale pour réglementer l'IA et protéger les moyens de subsistance des créateurs australiens ». « Ce qui est en jeu, c'est non seulement la durabilité des carrières des auteurs et des illustrateurs en Australie, mais aussi la richesse et la diversité de la littérature australienne », a déclaré Lucy Hayward, directrice générale de l'ASA.
« Nous nous félicitons du soutien apporté par la commission aux auteurs et illustrateurs australiens et à leur travail essentiel », a-t-elle ajouté. Le rapport demande aux créateurs de modèles d'IA d'être transparents dans leur utilisation d'œuvres protégées par le droit d'auteur pour l'entraînement de l'IA, et que tout travail soit rémunéré. OpenAI a déjà conclu un certain nombre de contrats avec des éditeurs afin d'utiliser leurs contenus pour ses modèles d'IA.
Source : rapport des sénateurs australiens
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions du rapport des sénateurs australiens ?
Les entreprises d'IA sont qualifiées de pirates qui pillent la culture et la créativité. Qu'en pensez-vous ?
Que pensez-vous des recommandations des sénateurs australiens pour protéger les moyens de subsistance des créateurs ?
Voir aussi
Les acteurs vocaux affirment que leur travail est sur le point d'être complètement pris par l'IA, les rôles dans les entreprises et à la radio commençant déjà à être remplacés par des clones d'IA générative
OpenAI développe un assistant vocal d'IA, se positionnant comme un concurrent direct de Google et d'Apple. La technologie est capable de « voir, d'entendre et de parler », elle peut reconnaître des objets
Les acteurs affirment qu'ils subissent de plus en plus de pressions pour céder leur voix à l'IA, lui se chargera ensuite de générer des versions synthétiques capables de remplacer les acteurs
Partager