À l’issue d’un événement organisé dans son campus de Mountain View, Google a dévoilé « nano-banana », une brique d’intelligence artificielle conçue pour retoucher des photos en quelques gestes. L’innovation, présentée comme à la fois légère et extrêmement précise, s’intègre déjà à Google Photos et se déploiera dans Android 15 dès cet automne. Derrière la démonstration impressionnante par la fidélité des couleurs et la cohérence des textures se dessinent de nouveaux enjeux autour de la propriété intellectuelle, de la traçabilité des contenus et de la rivalité accrue entre géants du numérique.
Avec nano-banana, Google entend bien franchir une étape supplémentaire dans la démocratisation de la retouche assistée par l’IA. L’utilisateur a la possibilité de supprimer un objet, d’ajuster la luminosité d’une zone ou de prolonger un arrière-plan simplement en le surlignant au doigt. Là où les précédentes solutions nécessitaient de charger un modèle sur des serveurs distants, nano-banana tient dans 75 Mo et fonctionne hors ligne sur la plupart des SoC mobiles récents. La compacité devrait permettre une adoption massive : la retouche ne dépend plus d’une connexion stable ni d’un abonnement Premium. Google table ainsi sur les milliards de clichés importés chaque jour dans Google Photos pour entraîner, affiner puis personnaliser l’outil au fil de son utilisation.
L’ingénierie du « mini-modèle »
Sous le capot, nano-banana repose sur une déclinaison condensée du modèle Imagen 3, repensée pour se charger en mémoire limitée tout en préservant la finesse des détails. Les ingénieurs affirment avoir substitué les couches de diffusion classiques par un système d’encodeurs hiérarchiques plus parcimonieux en calculs. Ce choix réduit la latence à moins de 400 ms par opération sur un Pixel 9, soit trois fois plus rapide que la précédente génération Magic Eraser.
En parallèle, Google adopte un tatouage numérique invisible – baptisé « SynthID-Lite » – inscrit à même les pixels modifiés, garantissant la traçabilité sans altérer la qualité visuelle. Une tactique qui vise à répondre aux appels de régulation sur l’authenticité des images, un sujet devenu brûlant depuis la prolifération de deepfakes.
Des rivalités technologiques et stratégiques
Le lancement de nano-banana intervient alors qu’Adobe teste Firefly directement dans Photoshop, que Canva muscle ses outils « Magic Edit » et qu’Apple peaufine ses propres modèles on-device. En compressant son intelligence artificielle pour les smartphones de milieu de gamme, Google espère verrouiller un écosystème où la capture, la retouche et le partage demeurent sous la même bannière.
L’entreprise prolonge aussi son pari sur le hardware : la future puce Tensor G4 promettrait une accélération matérielle dédiée à la diffusion d’images, brouillant la frontière entre optique et algorithme. Au-delà de la fidélisation des utilisateurs, la firme vise des revenus indirects (stockage cloud, abonnements à Google One) tout en récoltant de précieuses données d’usage.
La question des droits d’auteur
Reste la zone grise du droit d’auteur : si l’outil reconstitue un monument occulté dans une photo ou génère une texture semblable à celle d’un artiste, qui en détient la paternité ? Google assure respecter les licences des images d’entraînement et s’appuie sur des filtres pour éviter toute reproduction litigieuse.
Mais les juristes et les photographes indépendants réclament déjà plus de transparence sur les jeux de données utilisés. Par ailleurs, même si nano-banana fonctionne hors ligne, la synchronisation optionnelle vers le cloud pourrait exposer des clichés retouchés à de nouvelles formes de collecte ou d’analyse commerciale, un point que les autorités européennes regarderont de près au nom du RGPD.
Quelles perspectives et la feuille de route
Selon le calendrier interne, la version stable de nano-banana sera proposée en octobre sur les Pixel et étendue en 2026 aux Chromebooks, puis aux API tierces via Google Cloud.
D’autres déclinaisons sont à l’étude : animation de portraits fixes, correction automatique de reflets sur vitre, voire transformation stylistique inspirée de peintres célèbres. Autant de fonctionnalités qui, combinées à la puissance croissante des terminaux, pourraient redéfinir la frontière entre photographie et illustration numérique.
En miniaturisant un outil de génération visuelle autrefois confiné aux centres de données, Google poursuit sa stratégie : mettre l’IA au service de gestes quotidiens, presque invisibles mais hautement addictifs. Reste à savoir si nano-banana inaugurera une ère de créativité libérée ou s’il accélérera un brouillage entre réalité et fiction que sociétés civiles et régulateurs peinent encore à encadrer. Une chose est sûre : la bataille de la retouche instantanée vient de changer d’échelle, et l’image que nous construisons du monde avec nos smartphones pourrait ne jamais plus être tout à fait la même.
Source : Blog Google