Scarlett Johansson comme assistante virtuelle ?
Toute l’actu cyber de la semaine, présentée par un expert. Cette semaine on revient notamment sur l’automatisation des campagnes de désinformation grâce à l’IA, le paiement des rançons et Scarlett Johansson comme assistante virtuelle.
Scarlett Johansson comme assistante virtuelle ?
A l'occasion du déploiement du nouvel assistant virtuel d'OpenAI sur la dernière version de Chat-GPT, les utilisateurs ont remarqué la ressemblance troublante de la voix féminine à celle de Scarlett Johansson dans son film "HER". La fonctionnalité a depuis été suspendu par OpenAI. L'actrice a réagi à cette nouvelle par le biais d'un communiqué en affirmant n'avoir jamais donné son accord pour l'utilisation de sa voix. De son côté, OpenAI nie toute utilisation illégale.
Pourquoi c'est important ?
Cette affaire soulève de nombreux questionnements sur l'utilisation future de l'intelligence artificielle. La première est d'ordre réglementaire et légale, l'utilisation de la voix (même quelque peu modifiée) d'une personne publique constitue-t-elle une atteinte à la réputation et à la propriété intellectuelle de cette dernière ? Une deuxième question ou conséquence porte sur le besoin de sensibilisation du large public sur les risques liés à l'utilisation de telles technologies, si la prévention contre les Deep Fake commencent progressivement à prendre de l'importance, il est nécessaire de focaliser davantage la prise en considération de ces risques. Il est très facile d'imaginer les potentielles arnaques et fraudes sophistiquées qui pourraient survenir avec une démocratisation de ces outils. Il est aussi question de désinformation à large échelle avec la génération de contenu vidéo et audio qui commencent également à voir le jour. Une dernière question porte sur le besoin de transparence de telles pratiques, notamment des fournisseurs de services d'IA. Si OpenAI nie être dans l'illégalité et assure avoir respecté le droit en vigueur, ce récent scandale ne va pas arranger le débat portant sur le manque de transparence des outils liés à l'intelligence artificielle, dont les secrets sont jalousement gardés.
L'automatisation des campagnes de désinformation grâce à l'IA
OpenAI publie un rapport affirmant que la Russie, la Chine, Israël et l'Iran auraient utilisé ses services dans le but de créer des campagnes de désinformation à grande échelle. L'entreprise aurait depuis suspendu ces comptes et mis en place des garanties.
Pourquoi c'est important ?
A l'heure où le potentiel des services d'IA génératrices de contenu connaissent un essor sans précédent, il ne fallait pas attendre longtemps pour voir un côté plus obscur apparaitre. Le risque de désinformation sur Internet n'a jamais été aussi grand, des campagnes entières de désinformation sont réalisées en quelques étapes simples et peuvent être diffusées rapidement. L'utilisation des services d'OpenAI (ou d'autres fournisseurs de services d'IA) va devoir s'adapter et faire preuve de prudence dans sa modération. Si l'entreprise affirme avoir pris des mesures pour garantir la sécurité et la bonne utilisation de ces services, cela pose évidemment la question de la manipulation de telles données par l'entreprise elle-même, ayant la main mise sur ce potentiel. Si des mesures de détection et de répression des comptes frauduleux peuvent être mises en place pour diminuer le risque, il reste à craindre que ces mesures n'interviendront qu'a posteriori, le mal étant déjà fait. De plus, cela pose également la question de la responsabilité des fournisseurs de services dans la réalisation de ces contenus, voire même de la neutralité du fournisseur vis-à-vis de la création de contenu sur sa propre plateforme.
Payer une rançon ne sert à rien !
Illan Liska, expert en cybercrime affirme son envie de voir le bannissement du paiement des ransonware par les entreprises, qui selon lui, ne servent à rien pour diminuer le risque d'attaques et leurs conséquences.
Pourquoi c'est important ?
Chaque année, les montants gagnés par les cybercriminels par l'intermédiaire d'attaques Ransonware battent de nouveaux records, tout comme le nombre d'attaques d'ailleurs. La proposition de Liska peut paraitre brutale, mais fait sens. En effet, et tout comme le dit bien l'adage "Qui paie mal paie deux fois", payer la rançon revient à payer deux fois le prix, le prix de cette dernière, et le prix à payer pour corriger les défauts de sécurité, voire remplacer tout ou partie de son systèmes d'informations. Si les entités telles que l'ANSSI ou la CNIL conseille déjà très fortement de ne jamais payer une rançon, la pression sur les entreprises fait souvent oublier cette recommandation... Il faut cependant rappeler que même en cas de paiement, rien ne dit que l'attaquant n'a pas déjà récupéré toutes les données potentiellement intéressantes (ce qui est bien souvent le levier d'action utilisé pour obliger les entreprises à payer). Ainsi, payer la rançon n'assure déjà pas une protection quant à une fuite de données ultérieures, mais nuit davantage à la réputation déjà entachée. En tout état de cause et en l'absence de législation à l'horizon sur le sujet, il importe de rappeler que la meilleure solution pour faire face à une attaque est la sécurisation de ses systèmes, couplé à une assurance cyber que l'on pourrait développer en ce sens pour aider les entreprises touchées à réparer les dégâts, le paiement d'une rançon (compte double) deviendrait moins pertinent.