Udforsk hvordan Google I/O 2025 indleder Gemini-tiden med AI-drevne opdateringer på tværs af Googles økosystem, og se hvordan FlowHunt bringer den nyeste Gemini 2.5 Flash-model til dine AI-projekter.
Google I/O
Gemini
AI
Android
Web Development
Open Source
FlowHunt
Logan Kilpatrick indledte med at fremvise, hvordan Project Astra har til formål at gøre AI-interaktion fuldstændig naturlig. Mange af disse funktioner er nu tilgængelige gennem Live API, drevet af den nye Gemini 2.5 Flash native audio model. Denne model er bedre til at ignorere forstyrrende lyde og understøtter 24 sprog direkte, hvilket baner vejen for mere intuitive og lydhøre AI-oplevelser.
Byg med Gemini: Realtids multimodal interaktion
Paige Bailey demonstrerede styrken ved at bygge med Gemini gennem en “Keynote Companion”-demo. Ved brug af Google AI Studio viste hun, hvordan AI’en kunne forstå talte kommandoer, interagere med live data (som at vise Shoreline Amphitheatre på et kort), og endda udføre komplekse søgninger som at finde nærliggende caféer med Wi-Fi – alt sammen i en samtaleflow. Dette fremhæver Geminis imponerende multimodale egenskaber.
Android udvikler sig: Adaptive brugerflader, XR og AI-assistent i IDE
Adaptive by Design: Compose og Android XR
Diana Wong understregede Googles engagement i at gøre adaptive brugerflader lettere at bygge. Nye funktioner i Compose Adaptive Layouts-biblioteket, såsom Pane Expansion, er designet til at hjælpe udviklere med at skabe apps, der problemfrit tilpasser sig forskellige skærmstørrelser og formfaktorer. Denne adaptive filosofi er direkte udvidet til Android XR, den udvidede virkelighedsplatform udviklet i samarbejde med Samsung. Udviklere kan allerede nu begynde at bygge til kommende headsets som Project Moohan, velvidende at deres adaptivt designede apps vil være klar til denne nye, omsluttende platform.
Klogere kodning: AI-agenter i Android Studio
Florina Muntenescu præsenterede en gamechanger for Android-udviklere: en ny AI-agent, der snart kommer til Android Studio. Denne agent er designet til at hjælpe med kedelige opgaver som versionsopdateringer. I en imponerende demo analyserede AI-agenten et gammelt projekt, identificerede build-fejl og brugte derefter Gemini til at finde ud af, hvordan problemerne kunne løses, og gentog processen indtil buildet lykkedes. Dette lover at gøre udviklingsarbejdet betydeligt mere strømlinet.
Klar til at vokse din virksomhed?
Start din gratis prøveperiode i dag og se resultater inden for få dage.
Webben bliver klogere: On-device AI og forbedret UI-bygning
Strømlinede web-brugerflader: Nye muligheder for komplekse elementer
Una Kravets fremhævede nye webfunktioner, der forenkler opbygningen af almindelige, men overraskende komplekse UI-elementer. Udviklere vil finde det lettere at bygge robuste og tilgængelige komponenter som karruseller og hover cards, hvilket forbedrer brugeroplevelsen på nettet.
Gemini Nano på nettet: Multimodale AI-API’er frigivet
Addy Osmani annoncerede, at Gemini Nano åbner op for nye multimodale muligheder direkte på nettet. Nye multimodale indbyggede AI-API’er giver brugerne mulighed for at interagere med Gemini ved både lyd- og billedinput. En “Cinemal”-demo viste dette ved at lade en bruger tage et billede af en billet med deres webcam, og den lokale AI fandt straks brugerens sædesektion på et teaterkort – et stærkt eksempel på on-device behandling.
Firebase & AI: Booster app-udvikling
David East demonstrerede, hvordan Firebase integrerer AI for at accelerere app-udvikling. Udviklere kan nu bringe deres Figma-designs til live i Firebase Studio med hjælp fra Builder.io. Det imponerende? Det er ikke bare et monolitisk kodedump; Figma-eksporten genererer velisolerede, individuelle React-komponenter. Ved at bruge Gemini i Firebase Studio viste David, hvordan han nemt kunne bede AI’en om at tilføje funktioner som en “Læg i kurv”-knap på en produktside, hvilket AI’en straks implementerede, opdaterede koden og den live webvisning.
Tilmeld dig vores nyhedsbrev
Få de seneste tips, trends og tilbud gratis.
Demokratisering af AI: Nye åbne modeller – Gemma 3n & SignGemma
Gemma 3n: Kraftfuld AI på kun 2GB RAM
Gus Martins leverede spændende nyt til open source-miljøet med annonceringen af Gemma 3n. Denne utroligt effektive model kan køre på helt ned til 2GB RAM, hvilket gør den langt hurtigere og mere kompakt til mobilhardware sammenlignet med Gemma 3. Vigtigt er det, at Gemma 3n nu også inkluderer lydforståelse, hvilket gør den ægte multimodal.
SignGemma: Bro til kommunikation
Google skubber også grænserne for tilgængelighed med SignGemma. Denne nye familie af modeller er trænet til at oversætte tegnsprog (med aktuelt fokus på American Sign Language – ASL) til tekst på talesprog og åbner nye muligheder for kommunikation og inklusion.
Ny Gemini 2.5 Flash i FlowHunt
Bliver du inspireret af de utrolige AI-fremskridt på Google I/O? Vil du i gang med at skabe avancerede AI-agenter, der kan forstå, ræsonnere og handle?
FlowHunt er den AI-drevne platform, der hjælper dig med at skabe kraftfulde AI-agenter problemfrit, uden at du behøver være maskinlæringsekspert. Design komplekse arbejdsgange, integrer forskellige værktøjer, og udrul intelligente agenter med lethed.
Og de gode nyheder? Som fremhævet med de nye modellers styrke i keynoten, understøtter FlowHunt nu den banebrydende Gemini 2.5 Flash! Det betyder, at du straks kan begynde at udnytte dens hastighed, effektivitet og forbedrede lydfunktioner til at bygge endnu stærkere og mere lydhøre AI-agenter.
Prøv Gemini 2.5 Flash i FlowHunt
Prøv de nye modeller, der er implementeret på under 24 timer i FlowHunt, med det samme!
Google I/O 2025 fremhæver virksomhedens skift mod en AI-native fremtid, med Gemini-modeller i centrum for nye produkter og funktioner på tværs af Android, web og udviklerværktøjer.
Gemini 2.5 Flash er Googles nyeste native audio AI-model, som tilbyder hurtig, effektiv og flersproget lydbehandling, nu tilgængelig for udviklere og integreret i platforme som FlowHunt.
Gemma 3n er en effektiv AI-model, der kan køre på helt ned til 2GB RAM med multimodale (audio) funktioner. SignGemma er en familie af modeller, der oversætter tegnsprog, med fokus på ASL, til talt sprogs tekst.
FlowHunt understøtter nu Gemini 2.5 Flash, hvilket giver brugerne mulighed for at skabe avancerede AI-agenter med forbedrede lyd- og multimodale funktioner uden behov for maskinlæringskompetencer.
Android introducerede adaptive brugerflader, XR-understøttelse og AI-agenter i Android Studio for smartere kodning. På nettet muliggør Gemini Nano multimodale AI-API'er til lyd- og billedinput direkte i browseren.
Yasha er en talentfuld softwareudvikler med speciale i Python, Java og maskinlæring. Yasha skriver tekniske artikler om AI, prompt engineering og udvikling af chatbots.
Yasha Boroumand
CTO, FlowHunt
Prøv Gemini 2.5 Flash i FlowHunt
Oplev kraften i den nye Gemini 2.5 Flash-model i FlowHunt og byg næste generations AI-agenter med avancerede multimodale funktioner.
AI-nyheder 2025: Gemini 3 Flash, GPT Image 1.5, NVIDIA Nemotron 3 og fremtiden for AI-modeller
Udforsk de nyeste gennembrud inden for AI i 2025: Googles Gemini 3 Flash, OpenAI's GPT Image 1.5, NVIDIAs open source Nemotron 3 og vigtige brancheudviklinger, ...
AI-gennembrud i december 2025: Gemini 3 Flash, Nemotron 3 Nano og kapløbet om effektiv intelligens
Udforsk de mest markante AI-udgivelser i december 2025, herunder Googles Gemini 3 Flash, Nvidias Nemotron 3 Nano og andre banebrydende modeller, der omformer AI...
Googles Android XR-briller: Fremtidens smarte briller i 2025
Udforsk Googles Android XR-briller og opdag, hvordan Gemini AI, avanceret hardware og åbne partnerskaber med Warby Parker, Samsung og Xreal former fremtiden for...
8 min læsning
Google
XR Glasses
+6
Cookie Samtykke Vi bruger cookies til at forbedre din browsingoplevelse og analysere vores trafik. See our privacy policy.