10 februari, 2026
HEM Apple Apple bekräftar: Siri får Googles Gemini AI i iOS 26.4

Apple bekräftar: Siri får Googles Gemini AI i iOS 26.4

Apple Siri AI

Apple har officiellt meddelat en strategisk kursändring som markerar ett nytt kapitel i bolagets AI-satsning.

Genom ett omfattande, flerårigt samarbete med Google kommer nästa generations röstassistent att drivas av Googles kraftfulla AI-modell Gemini. Denna integration förväntas bli en central del av Apple Intelligence och rullas ut i stor skala under våren.

Ett paradigmskifte för Apple Intelligence

Beslutet att basera framtidens Apple Foundation Models på Googles Gemini-teknologi och molninfrastruktur kommer efter en tids spekulationer om hur Apple ska stänga det tekniska gapet inom generativ AI. Efter en omfattande utvärderingsprocess konstaterade Apple att Googles teknologi erbjöd den mest kapabla grunden för att förverkliga visionen om en mer intelligent och personlig användarupplevelse.

Trots att Google nu levererar den underliggande motorn för vissa funktioner, poängterar Apple att säkerhetsfilosofin förblir oförändrad. Apple Intelligence kommer fortsätta att prioritera lokal bearbetning direkt på enheten samt användning av Private Cloud Compute för att upprätthålla branschens striktaste integritetsstandarder.

iOS 26.4 och lanseringsplanen för nya Siri

Den uppdaterade versionen av Siri, som först visades upp under WWDC 2024, har drabbats av flera förseningar. Nu står det dock klart att tekniken är redo för lansering. Siri med Google Gemini planeras att inkluderas i den skarpa versionen av iOS 26.4, vilken beräknas nå konsumenterna under mars eller april 2026.

Denna uppdatering är inte enbart en kosmetisk förändring utan innebär en genomgripande omstrukturering av hur röstassistenten interagerar med operativsystemet och användarens data.

Djupare kontextuell förståelse

En av de mest efterlängtade nyheterna är assistentens förmåga att förstå personlig kontext på en helt ny nivå. Genom integrationen med Gemini kan Siri framöver:

  • Läsa av skärminnehåll: Analysera vad användaren för tillfället tittar på för att kunna utföra relevanta kommandon.
  • Söka information mellan appar: Extrahera data från e-post, kalendrar och meddelanden för att besvara komplexa frågor.
  • Proaktiv assistans: Självständigt hitta information om exempelvis flygtider eller bokningar genom att korrelera data från olika källor utan manuell instruktion.

Apple and Google have entered into a multi-year collaboration under which the next generation of Apple Foundation Models will be based on Google’s Gemini models and cloud technology. These models will help power future Apple Intelligence features, including a more personalized Siri coming this year.

After careful evaluation, Apple determined that Google’s Al technology provides the most capable foundation for Apple Foundation Models and is excited about the innovative new experiences it will unlock for Apple users. Apple Intelligence will continue to run on Apple devices and Private Cloud Compute, while maintaining Apple’s industry-leading privacy standards.

Strategisk betydelse för marknaden

Samarbetet mellan de två teknikjättarna är ett tydligt tecken på AI-marknadens mognad, där även de största aktörerna ser värdet i att dela infrastruktur för att leverera spjutspetsteknik till slutkund. För användare av iPhone och iPad innebär detta att den tidigare begränsade funktionaliteten hos Siri ersätts av en motor som kan mäta sig med de mest avancerade språkmodellerna på marknaden idag.

Genom att kombinera Googles beräkningskraft med Apples fokus på användarvänlighet och integritet, positionerar sig iOS 26.4 som en av de mest betydelsefulla mjukvaruuppdateringarna i Apples historia.

Källablog.google
Tidigare artikelGoogle inför köpknappar i Gemini och AI-sök – så kan framtidens e-handel förändras
Nästa artikelMSI Geforce RTX 5090 Lightning – tre extrema grafikkort avslöjade