Het o3-model wordt door OpenAI gepresenteerd als hun meest geavanceerde redeneermodel tot nu toe. Het excelleert in complexe taken zoals programmeren, wiskunde en wetenschappelijk onderzoek. Volgens externe evaluaties maakt o3 20% minder fouten dan zijn voorganger, o1, bij het uitvoeren van complexe real-world taken.
Het kleinere broertje, o4-mini, biedt indrukwekkende prestaties in verhouding tot zijn grootte en kosten. Het is geoptimaliseerd voor snelle, kostenefficiënte redeneercapaciteiten en presteert bijzonder goed in wiskunde, codering en visuele taken. In expertbeoordelingen overtreft o4-mini zijn voorganger, o3-mini, op niet-STEM-taken en domeinen zoals datawetenschap.
Denken met beelden: een doorbraak in visuele perceptie
Voor het eerst kunnen de o3- en o4-mini-modellen beelden integreren in hun redeneerproces. Ze zijn in staat om afbeeldingen te analyseren en te manipuleren, zoals inzoomen of roteren, als onderdeel van hun analyse. Dit opent nieuwe mogelijkheden voor toepassingen waarbij visuele informatie cruciaal is.
Autonoom gebruik van ChatGPT-tools
De nieuwe modellen kunnen zelfstandig gebruikmaken van de volledige reeks tools binnen ChatGPT, waaronder websearch, Python, beeldanalyse en -generatie, en bestandsinterpretatie. Deze mogelijkheid stelt de modellen in staat om complexere vragen effectiever aan te pakken en taken autonoom uit te voeren.
Beschikbaarheid en toekomstplannen
De o3- en o4-mini-modellen zijn nu beschikbaar voor gebruikers van ChatGPT Plus, Pro en Team. Een pro-versie van o3 wordt in de komende weken verwacht. OpenAI heeft ook aangekondigd dat GPT-5, oorspronkelijk gepland voor een eerdere release, is uitgesteld om verdere verbeteringen mogelijk te maken.
Met de introductie van o3 en o4-mini zet OpenAI een belangrijke stap richting meer geavanceerde en autonome AI-systemen, die niet alleen taal begrijpen, maar ook visuele informatie kunnen verwerken en zelfstandig complexe taken uitvoeren.
Meer info https://openai.com/index/introducing-o3-and-o4-mini/