Google DeepMind dévoile Perch, une IA capable d’analyser des trillions de vidéos et de comprendre enfin pourquoi votre tante filme les mariages en zoom x8
Vers une intelligence artificielle qui maîtrise l’art du dimanche après-midi filmé de travers
Google DeepMind a annoncé cette semaine avec enthousiasme le lancement de Perch, une intelligence artificielle révolutionnaire capable d’absorber et d’analyser des trillions de vidéos en ligne — y compris ces clips où votre grand-père filme le barbecue familial avec l’enthousiasme d’un caméraman de guerre ivre.
Perch, dont le nom évoque autant un oiseau observateur qu’un poisson qui n’a rien demandé, a été conçu pour apprendre sans supervision humaine. « L’objectif est de permettre à la machine de se familiariser avec le monde visuel tel que les gens le vivent réellement : en désordre, flou, souvent mal cadré et toujours en mode portrait », explique un communiqué très sérieux de Google que nous avons reçu à 2h du matin.
La technologie serait déjà capable d’identifier des concepts complexes comme “enfant tirant la nappe en hurlant”, “discussion passive-agressive à Noël” ou encore “tentative échouée de soufflage de bougies à distance réglementaire”.
Une avancée majeure pour l’analyse comportementale non consentie de la vie de famille
Perch ne se contente pas d’identifier les objets dans une vidéo. Elle prétend aussi pouvoir comprendre les motivations humaines. « C’est une forme d’analyse émotionnelle », explique le professeur Hubert Lalourde, expert en sociologie algorithmique auto-désigné. « L’IA commence à décrypter des signaux subtils, comme : pourquoi votre mère insiste pour filmer chaque gâteau que vous coupez, ou pourquoi votre oncle Jean inscrit “Été 2015” sur chaque clé USB… en Comic Sans. »
En parallèle, des démonstrations internes auraient révélé que Perch peut désormais reconnaître statistiquement les phrases les plus prononcées dans les vidéos familiales, avec en tête :
– “Y MARCHE CE TRUC ?!”
– “ATTENDS… COMMENT ON ZOOM, LÀ ?”
– “Marie, regarde ! Il plonge !… Zut, c’est fini…”
Bienvenue dans l’ère de la “vidéo passive-agressive augmentée”
Selon Google, Perch est déjà capable de détecter 94 % d’intentions sociales masquées dans les vidéos familiales, avec une marge d’erreur de seulement 3 “drames de salon” par minute. L’entreprise précise que cette IA pourrait même, à terme, recommander des interventions préventives : filtres esthétiques automatiques pour les vidéos de slow en bout de buffet, ou alertes instantanées si deux tantes commencent à se rapprocher dangereusement du même saladier à taboulé.
« Nous voulons créer une IA sensible et utile », poursuit le communiqué officiel de Google, « capable de différencier une chanson chantée volontairement faux d’un enregistrement réellement destructeur pour les tympans ». L’entreprise n’exclut pas un partenariat avec Spotify Famille pour générer automatiquement des playlists “émotionnellement proches de la dernière cousinade”.
Et demain ? Une IA qui intervient en temps réel sur les vidéos gênantes
À long terme, les équipes de DeepMind envisagent d’implémenter Perch directement dans nos appareils domestiques. L’objectif : offrir à chaque utilisateur un assistant vidéo embarqué pouvant suggérer, à chaud, de remettre un pantalon avant de répondre à un appel FaceTime, ou d’insérer automatiquement un bêtisier à la fin de chaque tentative de TikTok ratée.
D’ici 2025, l’IA devrait également être apte à détecter les cylindres de gros mots dans les vidéos de camping et à générer automatiquement des sous-titres “émotionnellement optimisés” pour les repas de famille filmés en silence mais à forte tension.
« Si tout se passe comme prévu », conclut le Dr Lalourde, « nous aurons bientôt une IA capable de différencier un regard de désapprobation parentale d’un simple strabisme ambiance barbecue. »
En attendant, Perch regarde déjà vos vidéos. Et elle prend des notes.