Google DeepMind onthult universele AI-assistent: Gemini breekt barrières tussen digitale en fysieke wereld. Gemini wordt gepositioneerd als een allesomvattende AI-hulp die taken over alle schermen én in de echte wereld aanpakt — van teksten schrijven tot robots aansturen.
Een AI-assistent die écht overal helpt
Tijdens Google I/O 2025 heeft DeepMind een ambitieus nieuw hoofdstuk aangekondigd in de ontwikkeling van kunstmatige intelligentie: de lancering van Gemini als universele AI-assistent. Waar eerdere AI-systemen zich vooral richtten op tekstgeneratie of chat, is Gemini ontworpen als een geïntegreerde digitale metgezel die moeiteloos navigeert tussen virtuele schermen en fysieke omgevingen.
Sundar Pichai, CEO van Alphabet, benadrukte dat Gemini niet zomaar een chatbot is, maar een krachtig platform dat ingezet kan worden op telefoons, computers, AR-brillen en zelfs in robots. “We willen van AI een proactieve, intuïtieve hulp maken die de echte wereld begrijpt en ermee kan omgaan,” aldus Pichai.
Gemini 1.5: krachtig geheugen en redeneervermogen
De nieuwste modellen uit de Gemini 1.5-reeks beschikken over indrukwekkende capaciteiten, zoals een ‘long-context memory’ die duizenden pagina’s tekst of uren video-inhoud aankan. Dit stelt gebruikers in staat om diepgaande analyses te laten uitvoeren of complexe documenten razendsnel te laten samenvatten.
Google toonde live hoe Gemini met gemak een volledige codebase doorzocht, foutmeldingen begreep en verbeteringen suggereerde. Maar het systeem gaat verder dan alleen digitale ondersteuning — Gemini is nu ook inzetbaar in de echte wereld.
Van muis tot robot: Gemini als multi-device copiloot
Een van de belangrijkste vernieuwingen is Gemini’s vermogen om context te begrijpen over meerdere apparaten heen. Op Android-smartphones, bijvoorbeeld, kan Gemini real-time helpen bij het schrijven van e-mails, het navigeren door apps of het opstellen van samenvattingen. In combinatie met AR-brillen kan Gemini objecten herkennen, aanwijzingen geven en zelfs visuele uitleg verschaffen over wat je ziet.
Tijdens de demonstratie was te zien hoe een prototype-robot, aangedreven door Gemini, moeiteloos fysieke taken uitvoerde: een rommelige tafel opruimen, een doos openen en een item aanreiken aan een persoon. Deze demo’s onderstrepen het potentieel van Gemini als brein achter ‘agentic AI’ — systemen die zelfstandig kunnen waarnemen, plannen en handelen.
Een toekomstvisie waarin AI echt universeel wordt
DeepMind-CEO Demis Hassabis stelde dat Gemini is gebouwd als een “agentische AI”, die de wereld kan waarnemen, redeneren over situaties en daarop actie kan ondernemen. De inzet van Gemini in robots, wearables, smartphones en computers is volgens hem slechts het begin. “Onze ambitie is een AI die niet alleen met je meedenkt, maar ook met je meedoet.”
Met Gemini lijkt Google dus af te stappen van passieve, tekstgebaseerde assistenten en zet het volop in op een proactieve AI die zich beweegt tussen apps, apparaten en de fysieke wereld. Deze alleskunner staat symbool voor de volgende fase in AI: niet alleen antwoorden geven, maar daadwerkelijk helpen handelen.
Our vision for building a universal AI assistantAt Google I/O, we discussed how we're extending Gemini to become a world model.
|