Snapseed tilt fotobewerking naar een hoger niveau met AI

Snapseed tilt fotobewerking naar een hoger niveau met AI

Google Research heeft een baanbrekende technologie aangekondigd waarmee fotobewerking eenvoudiger en intuïtiever wordt — rechtstreeks op het toestel, zonder dat gegevens naar de cloud hoeven. In hun blogpost “Introducing interactive on-device segmentation in Snapseed” presenteren ingenieurs Ben Hahn en Florian Kübler een geavanceerd model dat gebruikmaakt van artificiële intelligentie voor realtime objectselectie.

 

Introducing interactive on-device segmentation in Snapseed

With the new Interactive Segmenter in Snapseed image editing has become easier and more powerful than ever. Simple taps and strokes are translated into accurate selections, allowing users to translate their editing ideas into reality.

https://research.google

Het probleem van selectieve bewerking

Fotobewerking op mobiele apparaten kent al jaren een uitdaging: hoe selecteer je subtiel één object in een afbeelding — bijvoorbeeld iemand in de voorgrond, een stukje lucht of een kledingstuk — zonder dat je hele foto beïnvloedt wordt? Bestaande hulpmiddelen (zoals het selecteren van “onderwerp”, “achtergrond” of kleurgebaseerde selecties) zijn vaak omslachtig, onnauwkeurig of vereisen veel handwerk.

Gebrek aan precisie bij aanrakingen en de beperkte rekenkracht van mobiele toestellen maken het extra lastig om fijnmazige selecties te maken.

De oplossing: Object Brush

De kern van de nieuwe technologie is de Object Brush — beschikbaar in Snapseed op iOS onder het gereedschap “Adjust”. Gebruikers tekenen een korte lijn of tikken op een object dat ze willen bewerken, en de AI herkent onmiddellijk het volledige object of de persoon. Binnen minder dan 20 milliseconden genereert het systeem een masker dat nauwkeurig de contouren volgt.

Tijdens dit proces is het mogelijk om de selectie direct aan te passen: delen toe te voegen of weg te halen, tot het perfect is. Doordat alles lokaal plaatsvindt — op het toestel — verloopt het bewerken snel en naadloos.

Deze functionaliteit is mogelijk dankzij de onderliggende technologieën MediaPipe en LiteRT, waarmee GPU-versnelling wordt benut om de latenties laag te houden.

Technische achtergrond: Modeltraining en kennisdistillatie

Om een model te maken dat krachtig én compact genoeg is voor gebruik op mobiele toestellen, vertrouwt Google op een tweefasige aanpak:

  • Teacher-model (Interactive Segmenter: Teacher): Dit grotere model is getraind met ongeveer 30.000 nauwkeurig met de hand geannotateerde maskers, verdeeld over meer dan 350 objectcategorieën.
  • Edge-model (Interactive Segmenter: Edge): Dit lichtere model is afgeleid van het teacher­-model via kennisdistillatie. Hierbij gebruikt het onduidelijk geannoteerde datasets (meer dan 2 miljoen afbeeldingen) en het teacher­-model om realistische prompts te genereren en de kennis over te dragen.

Door deze methode kan het Edge-model verrassend accurate selecties maken, ondanks zijn beperkte omvang.

Balans tussen kwaliteit en snelheid

Een grote uitdaging was de balans tussen segmentatienauwkeurigheid en interactiviteit. Google koos voor een scheiding van “beeldverwerking” en “promptverwerking”:

  1. Beeldencoder (zwaar model): wordt eenmaal per afbeelding uitgevoerd om semantische kenmerken te extraheren.
  2. Interactieve decoder (licht gewicht): reageert op de gebruiker’s aanrakingen (prompts) en genereert binnen de 20 ms de uiteindelijke maskers.

Voor hoogresolutie-foto’s wordt het masker eerst berekend in 768×768 resolutie en vervolgens efficiënt opgeschaald (tot maximaal 4K), met behoud van details.

Op een iPhone 16 Pro bedraagt de decoderlatentie slechts 7,4 ms dankzij quantisatie en GPU-versnelling.

Uitrol, toepassingen en toekomst

De Object Brush wordt binnenkort gefaseerd uitgerold naar Snapseed-gebruikers op iOS. Later komen ook uitbreidingen naar andere tools binnen Snapseed.

Bovendien wordt het segmentatiemodel al gebruikt in andere Google-producten — zoals de Gallery-app op de Chromebook Plus 14, waar het AI-beeldbewerking aandrijft.

Op de langere termijn is het de bedoeling dat deze technologie breder geïntegreerd wordt in creatieve toepassingen binnen Google en mogelijk daarbuiten.


Slotbeschouwing

Met interactieve on-device segmentatie in Snapseed is Google erin geslaagd om geavanceerde beeldbewerking dichter bij gebruikers te brengen — in realtime, vloeiend en intuïtief. Waar vroeger nauwkeurige selecties tijdrovend of lastig waren, kunnen nu complexe objecten simpelweg met een veeg worden bewerkt. Deze technologische stap zou wel eens de manier kunnen veranderen waarop mobiele fotobewerking zich verder ontwikkelt.

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak