Depuis janvier 2015, Facebook développe activement un nouveau service capable de prévenir les utilisateurs des publications de photos compromettantes afin d’assurer une meilleure protection des internautes.

Imaginez. C’est la crémaillère de votre meilleur ami. Il est 3h du matin et bien éméché, vous décidez d’immortaliser la scène et de publier le cliché sur Facebook. Déjà, les likes et commentaires affluent et vous ne vous souciez (pas encore) de ce que pourra penser votre grand mère, votre petite copine, ou votre boss.

Horreur et désolation au petit matin ? Pour éviter ce genre de désagrément, Yann LeCun, français de 53 ans professeur en intelligence artificielle, travaille depuis un an à l’élaboration d’un algorithme de reconnaissance capable d’identifier le degré d’ébriété d’une personne. Un message d’avertissement peut lui être envoyé afin de la raisonner, ou avant la publication par un tiers d’une photo jugée embarrassante.

Les progrès en deep learning ne sont pas nouveaux, mais les technologies qui le permettaient, jusqu’alors cantonnées au référencement des moteurs de recherche et au ciblage publicitaire, ne disposaient pas de moyens aussi efficaces à l’analyse des différentes couches d’une image, d’un son ou d’un texte.

L’apprentissage profond est une technique qui fait appel à des réseaux neuronaux artificiels pour permettre aux machines à apprendre à reconnaître des formes dans des images, la langue parlée et l’écriture, entre autres. (Photo: Yann LeCun)

L’apprentissage profond est une technique qui fait appel à des réseaux neuronaux artificiels pour permettre aux machines à apprendre à reconnaître des formes dans des images, la langue parlée et l’écriture, entre autres. (Photo: Yann LeCun)

Lors de l’inauguration du centre de recherche, en octobre dernier, Mark Zuckerberg avait dit vouloir « utiliser de nouvelles approches en intelligence artificielle pour donner du sens à tous les contenus que les utilisateurs partagent, pour générer de nouvelles idées sur le monde et répondre aux questions que les gens se posent ». Le but étant de « créer des services avec lesquels il est beaucoup plus simple d’interagir et qui peuvent aider à résoudre beaucoup plus de problèmes que la technologie qui existe aujourd’hui ». De sécurité à surveillance, on ne peut qu’appréhender cette immersion dans notre vie privée, et réfléchir à nouveau aux risques d’une telle prise de contrôle.