Apples smarta glasögon. AI-genererad

Apples AI-glasögon börjar låta betydligt mer intressanta

Tidigare i veckan rapporterade Bloomberg att Apple skruvar upp tempot i utvecklingen av tre nya AI-produkter i wearables-kategorin: smarta glasögon, ett halsburet tillbehör och AirPods med kameror.

Samtliga uppges kretsa kring samma grundidé, att göra Siri mer närvarande i vardagen. Glasögonen framstår dock som den mest intressanta pusselbiten.

Apple har länge kopplats ihop med glasögonprojekt. Rykten om AR-glasögon har cirkulerat i åratal, men den satsningen tycks tills vidare ha fått stå tillbaka. I stället pekar uppgifterna mot en mer AI-fokuserad produkt, i samma breda kategori som Meta Ray-Ban-glasögonen.

Metas modell, som lanserades i slutet av 2023, kombinerar kameror, mikrofoner och högtalare i ett relativt diskret format. Funktionaliteten kretsar kring att interagera med en röstassistent, ta bilder, spela in video och lyssna på ljud. Trots återkommande diskussioner om integritet har produkten fått ett förhållandevis starkt genomslag.

Under det senaste året har flera rapporter antytt att Apple arbetar på en egen tolkning av konceptet. Enligt nya uppgifter har projektet tagit tydliga steg framåt. Apple sägs bland annat integrera dubbla kameralinser, en för datorseende och en för foto och video. Samtidigt uppges bolaget ha löst hur komponenterna ska rymmas i bågarna, efter att tidiga prototyper enligt ryktena förlitade sig på externa batterier.

Fokus på mer diskret röstinteraktion

En återkommande invändning mot röststyrda enheter är den sociala och praktiska aspekten. Att tala rakt ut i luften är inte alltid optimalt i offentliga miljöer, något som begränsat användningen för många befintliga röstassistenter.

Här kan Apple ha identifierat en potentiell differentieringspunkt. Enligt uppgifter köpte bolaget nyligen AI-startupen Q.ai i en affär värderad till omkring två miljarder dollar. Företaget uppges ha specialiserat sig på maskininlärning för tolkning av tyst eller nästan ohörbar röstinput.

Tekniken beskrivs som kapabel att analysera mycket små ansiktsrörelser och subtila signaler kopplade till tal, snarare än enbart ljud. I praktiken skulle det kunna innebära interaktion med Siri utan att användaren behöver tala hörbart, en lösning som i så fall adresserar ett av de mer påtagliga användarhindren för röststyrning.

Om tekniken fungerar i konsumentprodukter återstår att se, men ambitionen pekar mot en mer diskret och kontinuerlig form av AI-interaktion än vad som hittills varit vanligt.

Prisfrågan kvarstår

Det framstår som sannolikt att Apples glasögon hamnar i ett högre prissegment än motsvarande produkter från Meta och andra aktörer. Apple har historiskt positionerat nya produktkategorier med fokus på teknik och integration snarare än lågpris.

Samtidigt är det ofta funktionalitet och upplevd nytta som avgör mottagandet. Om Apple lyckas leverera en mer sömlös och mindre påträngande röstupplevelse kan prisskillnaden bli mindre avgörande för vissa användargrupper.

Något officiellt lanseringsdatum finns ännu inte, men samstämmiga rykten pekar mot att produkten kan närma sig marknaden inom relativt överskådlig tid.

Frågan är inte längre om Apple arbetar med AI-glasögon, utan snarare hur långt de kommit och vilken roll enheten är tänkt att spela i Apples växande AI-strategi.

Mer från författaren

Ive & Altman

Uppgifter: Jony Ives första OpenAI-produkt kan bli en smart högtalare

En AI genererad bild av en röd Macbook

Kodfynd i macOS 26.3 pekar på tre nya Apple-produkter