
Den nya modellen kommer med flera spännande funktioner:
- Förbättrad multimodalitet: Modellen kan hantera både multimodala indata (bilder, video, ljud) och utdata (textual content, bilder, tal).
- Nativ verktygsanvändning: Kan använda verktyg som Google Sökning, kodkörning och tredjepartsfunktioner direkt.
- Kompositionsfunktionsanrop: Kan automatiskt anropa flera användardefinierade funktioner i en sekvens.
- Bättre latens: Erbjuder snabbare svarstider jämfört med tidigare versioner.
- Stöd för flerspråkighet: Kan konversera på flera språk och hantera blandade språk.
Google har nyligen presenterat Gemini 2.0 Flash Experimental, en ny model av deras AI-modell som syftar until att förbättra utvecklingen av interaktiva och multimodala applikationer. Denna uppdatering är en del av Googles strävan att skapa mer ”agentiska” AI-lösningar, vilket innebär att AI:n kan agera på användarens vägnar och utföra uppgifter mer autonomt.
Förbättrad prestanda och hastighet
Gemini 2.0 Flash är designad för att vara dubbelt så snabb som sin föregångare, Gemini 1.5 Professional, samtidigt som den erbjuder starkare prestanda på flera viktiga områden. Den nya modellen stödjer multimodala utdata, vilket innebär att den kan generera textual content, ljud och bilder genom en enda API-anrop. Detta möjliggör skapandet av mer dynamiska och interaktiva applikationer.
Inbyggd verktygsanvändning

Gemini 2.0 Flash kan nu också använda verktyg nativt, vilket innebär att den kan utföra sökningar through Google, köra kod och interagera med tredjepartsfunktioner. Detta ger utvecklare möjlighet att skapa mer komplexa användarupplevelser där AI:n kan hämta info och agera baserat på den
Tillgänglighet och utveckling
Gemini 2.0 Flash Experimental är nu tillgänglig för utvecklare through Gemini API i Google AI Studio och Vertex AI. Utvecklare kan börja experimentera med modellen och dess nya funktioner.