Photo credit:

Google Duplex, tvivel och framtiden

2018 års upplaga av Google I/O var ... märklig, och fruktansvärt intressant.

Efter förra årets ganska fladdriga Keynote där pinsamma live YouTube-stunt varvades med de sedvanliga uppdateringarna av Android var årets version en befrielse.

Google levererade en rapp presentation jag kommer prata mer om annorstädes.

Denna posten kommer att fokusera på Google och AI, samt AI i allmänhet. Jag är nämligen övertygad om att Google I/O 2018 kommer att ses som en milstolpe i framtida historieskrivningar om just AI.

Dels på grund av vad som visades men också på grund av reaktionerna på det.

Duplex var otroligt.

Om du inte vet vad Google Duplex är så gör dig själv en tjänst och klicka på denna länken och se när Sundar Pichai introducerar Google Duplex för första gången.

Min första reaktion var ett ganska förväntat "Wow, det där var cool." Men ju mer jag tänkte på det desto mer imponerad blev jag. I mitt huvud jämförde jag de inspelade samtalen på scen med mina egna interaktioner med Google Assistant. Det är ljusår emellan.

Min Google Home mini därhemma klarar inte av att hålla två saker i huvudet, "Turn off the music and start the radio" resulterar ofelbart i ett "Sorry, I can't help with that." Dessutom levererat med en betydligt burkigare röst än vad Google Duplex hade där på scen i Silicon Valley.

Så när Apple-bloggaren John Gruber skriver att han är tveksam till om det vi såg verkligen hade hänt kan jag förstå hans skepticism. Samtidigt har jag svårt att tänka mig att Sundar Pichai skulle stå på scen och upprepade gånger säga "This is real" om det inte var det.

Oavsett hur det är med den saken så sätter John Gruber fingret på hur otroligt det som visades var. Han har också rätt i att demonstrationen väcker fler frågor än den besvarar, han ställer bara helt ointressanta frågor.

Det jag skulle vilja veta är:

Hur mycket processorkraft krävs för ett Duplex samtal jämfört med när jag frågar Google Assistant vilket världens snabbaste djur är?

För tredje året i rad skröt Sundar Pichai med Googles egenutvecklade machinelerning-hårdvara. Den är nu uppe i version 3.0 och jag misstänker att en försvarlig del av deras ML-moln gick åt till att driva Duplex. Detta är en av anledningarna till varför jag inte var förvånad över att det inte hölls en "Testa själv" demo i ett av demo tälten på konferensområdet. Det hade helt enkelt varit tokdyrt och (vilket jag snart skriver om) inte fungerat i vilket fall som helst.

Var allt tal realtidsgenererat eller spelades det upp fördefinierade snuttar?

Google har skrutit om wavenet och hur de kan får datorgenererade röster att låta naturligt i flera år nu. Men som sagt, min Google Assistant låter som en algoritm, inte som en riktig person.

Jag tor att det spelades upp en hel del färdiga domänspecifika snuttar i samtalen. Ännu en anledning till varför en öppen "testa själv" demo hade falerat. Det finns helt enkelt inte tillräckligt med flexibilitet i vad Duplex kan göra. Demon hade blivit en skrattfest med det ena goddag yxskaft exemplet efter det andra.

Hur lång tid tar det att träna upp Duplex i en ny domän?

Google är öppna med att Duplex än så länge bara klarar av väldigt begränsade scenarier, boka hårfrisör, restaurang och fråga om öppettider. I en bloggpost så nämner de att algoritmen tränas upp under övervakning (vilket är det vanligaste sättet) och under Keynoten nämner Sundar Pichai att de hållit på i några år med utvecklingen.

För mig känns demon som en ren kraftdemonstration framför allt riktad mot de närmsta konkurrenterna Amazon, Apple och Facebook.

Bara Google kan bygga Duplex som det ser ut idag. De har :

  • ägnat de senaste åren åt att dammsuga världen på AI experter
  • byggt upp ett ospecifierat antal serverhallar med specialbyggd hårdvar
  • enorm tillgång till träningsdata
  • en CEO som står till 100% bakom fullskalig satsning på AI och Machine Learning

Se hur det gick med Facebooks satsning på att skapa en virtuell assisten. Mark Zuckerberg hade det som nyårslöfte 2016 och det gick... inte alls.

I sin Mission Accomplished post verkar han snarare knåpat ihop ett halvautomatiserat hem, något vem som helst kan fixa med en tripp till Kjell & Co. Försöket att bygga motsvarande funktion som Google Duplex misslyckades fatalt. Ingenjörerna överskattade sin förmåga och underskattade komplexiteten. De trodde att de behövde tiotusentals samtal att öva på, ganska snart var siffran uppe i miljontals

Här dyker en annan fråga upp angående Googles demo. Varför ligger den två femtedelar in i presentationen? Det är en såpass överraskande teknik att den lätt förtjänar en "There's one more thing..." behandling. Kanske för att det kommer dröja ett bra tag innan Duplex kommer släppas till allmänheten. Ingen tid för utrullning eller ens löfte om framtida utrullning ges i presentationen. Det enda som nämns är att Duplex kommer börja ringa och fråga om öppettider inom de kommande veckorna.

Men jag tror ändå att det vi såg på scen kommer anses vara en milstolpe i AI historien.

Etik och empati

Det andra som hände var att det uppstod en diskussion om etik och empati vis-a-vis AI på ett sätt jag inte sett tidigare. En del ansåg att det var oansvarigt av Google att låta Duplex ringa upp utan att tydligt identifiera sig som en algoritm. Andra undrade hur en sådan identifikation skulle låta samt vilka effekter den skulle få.

Det är ganska enkelt att föreställa sig scenarier där vi absolut inte vill ha automatiserade samtal.

Tänk er bluffsamtalen från folk som utger sig för att jobba med säkerhetsuppdateringar för banker och så vidare. Tänk er att det är en trevlig tålmodig röst som pratar ditt eget språk och att de kan hålla på dag ut och dag in, timme efter timme.

Eller att en partiledare låter en robotklon av sig själv ringa runt och prata med folk hur länge de vill om vad som helst.

Som jag skrivit om helt nyligen närmar vi oss punkten då vi inte längre kan skilja på vad som är sant och vad som är genererat av en dator med skrämmande hastighet. Det är bra att vi börjar prata om AI och dess effekter på en bredare front.

Lite gulligt var det när Google Assistant teamet fick berätta att de skall implementera en artighets inställning för att lugna föräldrar som oroar sig för att deras barn skall bli otrevliga av att bossa runt en virtuell assistent.

Det påminde mig om en dragning jag såg av Dr Kate Darling, expert på robot etik på MIT, där hon slår fast att det finns en koppling mellan hur pass empatisk en människa är och hur den behandlar robotar. Hon funderar även kring huruvida det går att använda robotar för att träna upp människors empati. Så helt ute och snurrar är nog inte Google Assistant teamet med sin "Pretty Please" funktion.

Hennes avslutningsord är utmärkta att ha med sig i den gryende diskussionen om AI och etik.

I don't think that robot ethics is actually about robots. I think that it's about humans. [...] mainly robot ethics is about our relationship with each other.