Apple est un acteur majeur de l’IA et doit se plier aux règles du gouvernement américain. Bloomberg rapporte aujourd’hui que Cupertino a accepté un ensemble de directives élaborées par l'administration Biden. Leur but est de protéger les consommateurs tout en tentant de guider le développement de la technologie.
Plus précisément, Apple s’est engagée à tester ses IA « pour y déceler d'éventuelles tendances discriminatoires, des failles de sécurité ou des risques pour la sécurité nationale ». Les IA sont connues pour embarquer certains stéréotypes racistes ou sexistes, ayant par exemple tendance à sous-représenter certains genres dans certaines professions. Les vulnérabilités devront être signalées et les résultats partagés de manière transparente aux universitaires et au gouvernement. D’autres entreprises comme Amazon, Alphabet, Meta, Microsoft ou OpenAI ont également accepté ces directives.
Cette annonce se fait alors qu’Apple s’apprête à déployer Apple Intelligence. Si le lancement n’aura lieu qu’en 2025 au plus tôt en Europe, la technologie fera ses premiers pas à l’automne aux États-Unis. Les développeurs pourront même commencer à jouer avec dans les semaines qui viennent.
Pas d'iPhone 15 Pro ? Les alternatives aux fonctions Apple Intelligence
Les directives du gouvernement ne sont pas imposées : il va donc falloir faire confiance aux entreprises. Plusieurs politiques ont tenté de faire passer une réglementation de l’IA aux États-Unis, mais le projet a été relégué au second plan. En Europe, l’AI Act va édicter différents changements dans le domaine de l’IA : il demande plus de transparences sur les modèles et les corpus utilisés pour les former, et interdit de faire passer les chatbot pour des humains.
Source : Accroche : Pixabay/MacGeneration