Photo credit: kitsuwaka

Nu är det ett AR krig på gång

Den femte juni 2017 avlossade Apple det första skottet i AR-kriget.

Knappt tre månader senare, 29 augusti, kom Googles svar, ARCore. Nu är det bara för oss konsumenter att ta skydd och vänta på att röken lägger sig.

Fast vänta lite... det är inte fullt så enkelt som det först kan verka. Visst kan det vara lockande att måla upp detta som en konflikt där två av de mest drivande företagen inom teknikvärlden samlar sina styrkor för att göra upp en gång för alla. Men det vore grovt felaktigt.

Till att börja med så var Apple inte först, de var bara smartast. Som vi nämnde i vårt poddavsnitt om WWDC 2017 så använde Apple sina styrkor på ett smart sätt för att snabbt få den absolut största användarskaran av alla som gör AR.

Men innan dess kom Googles Tango och innan dess kom Microsofts HoloLens. Båda dessa bygger dock på att folk köper dedikerad, ganska klumpig, hårdvara innan de kan börja placera ut 3D-renderade fåtöljer i sitt vardagsrum. I Apples fall räcker det med att ha en iOS enhet med A9-chip eller senare i.

Förutom Microsoft och Google så har AR funnits i en uppsjö implementationer sedan våra telefoner fick kameror. Stjärnkartor, spel och Fllightradar är bara några exempel på appar som gett sig på att förstärka verkligheten med visuell information ovanpå en videoström. På senare tid har en dansande varmkorv från Snap Inc. tagit över rollen som ansiktet för AR revolutionen.

Jag vill inte förringa Apples roll i den accelererande AR-utvecklingen, men det är viktigt att se deras drag som en del i ett större sammanhang. Ett sammanhang som jag tror kommer få en lite annan inriktning än vad som skrivs om i dagens Apple vs. Google artiklar.

Visst, jag tror att ARKit satte en hel del press på Google och jag tror inte vi hade sett Google släppa ARCore idag om det inte varit för ARKit. De hade nog gärna väntat tills deras Pixel telefoner hade sålt till betydligt fler än cirka en miljon innan de började förlita sig på den plattformen för att rulla ut starkt hårdvarukopplade features.

Men... hur bra Google än må vara på att skriva kod så hade ARCore varit totalt omöjligt att få fram på under tre månader om det inte vore för det grundarbete som gjorts i Tango och Daydream projekten. På Google I/O pratade Clay Bavor om Immersive Computing som ett logiskt nästa steg i HCI. Det behövs inte några enorma mängder kremlinologi för att komma fram till att det finns en falang inom Google som efter Apples Keynote kunde hålla passionerade dragningar för Sundar Pichai om vikten av att inte hamna på efterkälken.

Vad gäller Apple så behövs det inte spekuleras över huvud taget. Tim Cook himself är helt öppen med att AR är något Apple kommer satsa stort på. Han tror att AR kommer innebära en lika omvälvande utveckling som smartphonen.

Här kan du hitta vårt Poddavsnitt om AR och Webben

Nå, om vi godtar att AR åtminstone har en chans att bli nästa steg i hur vi interagerar med information via våra prylar (oavsett om de är handhållna eller bärs på ansiktet) så kommer vi till Nästa Stora Grej™. Hur skall denna information levereras?

Det är här jag tycker det blir riktigt spännande. Som det ser ut för tillfället så kan den som vill skapa AR innehåll för iOS bygga en app. (Punkt) Men Google är kristallklara med att att de ser webben som ett alternativ till det

And we think the Web will be a critical component of the future of AR, so we’re also releasing prototype browsers for web developers so they can start experimenting with AR, too. These custom browsers allow developers to create AR-enhanced websites and run them on both Android/ARCore and iOS/ARKit.

Denna inställning var de öppna med redan i maj på deras VR/AR keynote så det är inte någon större överraskning. Vem som helst hade antagligen dragit liknande slutsats med tanke på föjande

Webben är det bästa sättet att leverera (vad som förmodligen ofta kommer vara) platsspecifik och flyktig information. En så kallad no-brainer.

Det jag tycker är spännande är att det verkar som att Apple har kommit fram till samma slutsats. Första indikationen på det var när de i februari 2017 lade fram ett förslag till W3C om att börja diskutera en ny standard för att leverera högkvalitativ 3D grafik över webben, i browsers. Den nyheten kom under de första ryktena om Apples kommande AR projekt och en del dorg slutsatsen att de hörde ihop. Så, i juni 2017, annonserades WebRTC för Safari och tack vare det så blev det möjligt att placera grafik ovanpå en videoström i Safari. Vilket är vad folk i vanliga fall förknippar med AR.

Det verkar med andra ord som om Apple, på klassiskt Apple manér, steg för steg bygger upp den infrastruktur som är nödvändig för att låta Safari bli en AR plattform.

Självklart kommer det även att finnas dedikerade AR-appar. Men när jag scrollar igenom den här listan med AR-idéer så är det få jag velat ha liggande på min telefon för jämnan. Sett som helhet blir det däremot lockande.

En utmaning som kvarstår är hur jag som användare skall hitta relevant AR innehåll. Det är ett problem som förekommer även för röstassistenter, om användarna inte vet att en tjänst finns, samtidigt som det inte går att signalera att den finns visuellt, hur gör man dem då uppmärksamma på det?

Ett sätt i AR fallet skulle kunna vara just virtuella assistenter. De kan antingen tillfrågas eller själva föreslå att det finns en AR-tjänst knuten till den situation som användaren befinner sig i och sen, efter att ha blivit ombedd, starta den på den mest relevanta prylen för tillfället.

Hur det än går till så är en viktig pusselbit att antalet steg från behov till nyttjande minskas. Det är just det som är en av webbens styrkor.