Search

Data jag älskar dig: Röstassistenter

"Ok, Google", så är det dags. En... mänsklig röstassistent

Enligt Juniper Research kommer 8 miljarder röstassistenter att användas i världen år 2023. En trend som har väckt uppmärksamhet hos den amerikanska konstnären och programmeraren Lauren McCarthy. Hon har tagit examen vid Massachusetts Institute of Technology (MIT) och är också professor vid University of California Los Angeles, mer känd under förkortningen UCLA. Lauren McCarthy är mycket intresserad av teknikens inverkan på våra liv och skapar originella konstverk och föreställningar.

År 2018 valde hon att arbeta med ämnet röstassistenter: förstå, Lauren bestämde sig för att bli en röstassistent. "Jag försöker bli den mänskliga versionen av Amazons Alexa", förklarade hon för tidningen Usbek&Rica samma år.

Hon rekryterade frivilliga på internet. Dessa frivilliga ser sedan konstnären anlända "med en hel arsenal av kameror, mikrofoner, lås, glödlampor, eluttag och andra uppkopplade föremål, som hon kommer att installera i lägenhetens fyra hörn, efter att ha anpassat dem", beskrivs det i artikeln.

Och konstnären fortsätter: "Jag ser personen dygnet runt och kontrollerar hela huset. Jag strävar efter att vara bättre än en artificiell intelligens eftersom jag som människa kan förstå dem och förutse deras behov.

För att vara ännu mer trovärdig talar Lauren genom en syntes för att få en mer robotliknande röst. Till den brittiska tidningen The Guardian förklarade den unga kvinnan 2019: "Jag sover när de [deltagarna, red. anm. [...] Känslomässigt har det varit utmattande att försöka tänka på vilka de är, vad de vill.

En av bilderna som analyserades i realtid av Lauren. 

Jag tänker bara på hur de ständigt lyssnar och spelar in oss [...] Det är för lätt att låta dessa apparater leda oss någonstans, utan att ens tänka på vart det leder. Vi föreställer oss dessa tekniker som neutrala, men de är programmerade för att fatta mycket specifika beslut. Vilka regler följer de? [...] Vi låter dem gå in på mycket intima områden.

Till tillverkarna av röstassistenter för hemmet skickar Lauren följande budskap: "Jag önskar att dessa företag hade mer hänsyn till vad det innebär att ha människor som kunder, vad det innebär att kontrollera någons hem."

För att ta del av vittnesmålen från deltagarna i Lauren McCarthys experiment är det möjligt att se denna korta video, producerad och regisserad av konstnären själv.

 

Verktyg skapade av Lauren McCarthy. 

Inte så digitala röstassistenter

Bakom varje teknik finns en människa, snarare hundratals eller till och med tusentals människor. Eftersom röstassistenterna fortfarande måste utvecklas för att förstå vårt beteende, tränas de. Företag som Google och Amazon (för att nämna några) anlitar därför transkriberare som har i uppdrag att lyssna på användarnas förfrågningar och framför allt på assistentens svar. Målet? Att kontrollera att assistenten uppfyller kundens behov och, om så inte är fallet, att förbättra verktyget.

La Quadrature du Net, en fransk förening som specialiserat sig på försvaret av personuppgifter och integritet, skriver 2018 på sin webbplats: "De virtuella assistenter som utrustar de uppkopplade högtalare som tronar i våra matsalar eller som nästlar sig in i våra fickor, installerade i våra smartphones, är inte födda intelligenta. De måste lära sig att tolka sina användares önskemål och vanor.

Lauren McCarthys demonstration, som visserligen frivilligt har inkapslats i en hyperbolisk apparat, verkar i vissa avseenden inte så långt ifrån vår verklighet.

"Ibland befinner sig de personer som sorterar dina förfrågningar, tittar på dina foton, lyssnar på vad du säger, i ditt land eller till och med i din stad", fortsätter artikeln. De kan också vara otrygga arbetstagare från fransktalande länder, som det står i artikeln.

Det bör noteras att de ljudspår som lyssnas på "i allmänhet är mycket korta, i genomsnitt mellan 3 och 15 sekunder" för "mellan 120 och 170 transkriptioner per timme" och per transkriberare, säger föreningen.

En av dem, som frågats ut av Quadrature du net, innehåller detaljer: "En del av arbetet bestod i att lägga till taggar i texten som anger de ljudhändelser som kunde förklara varför Cortana hade missförstått detta, eller bättre förstått det. Cortana är Microsofts virtuella assistent. Tanken är naturligtvis inte att peka specifikt på detta företag, eftersom alla företag som använder artificiell intelligens numera anlitar anställda eller frilansare i köttet för att förbättra sin utrustning.

Röstassistenter och datasäkerhet

Röstassistenter: Malware och trojaner

Under Defcon 2018, en av världens största hackarkonferenser, "lyckades en grupp hackare ta sig förbi alla högtalarens brandväggar [Amazon Echo, Redaktörens anmärkning]. Det hack som hackarna utvecklade kan spridas från högtalare till högtalare och därmed äventyra ett helt nätverk", skriver clubic.com.

På webbplatsen står det också att den hackade högtalaren först "anpassades för att fungera som en trojansk häst", och sedan berättar: "När de väl var anslutna till samma nätverk som andra högtalare som fortfarande inte var modifierade lyckades de få dem att lyssna på enheterna och vidarebefordra alla inspelningar till den ursprungliga enheten. Alla ljud som fångas upp av Alexa-enheter som är anslutna till samma nätverk vidarebefordras till hackarna.

Observera att Amazon tidigare hade varnats för demonstrationen och åtgärdat den brist som möjliggjorde hackningen.

Samma högtalare, olika historia. År 2017 visade en brittisk cybersäkerhetsexpert, Mark Barnes, att det var möjligt att hacka Amazon Echo-modeller som tillverkats före 2017 genom att installera malware på dem. Liksom vid det första hackningen är det viktigt att notera att högtalaren i förväg har modifierats fysiskt.

Den engelska versionen av den amerikanska månadstidningen Wired skrev 2017: "Efter att framgångsrikt ha skrivit sin programvara på Echo utvecklade Barnes ett ganska enkelt skript som gjorde det möjligt för honom att ta kontroll över mikrofonen och skicka det inspelade ljudspåret till en valfri dator. Ändå säger han att hans malware skulle kunna utföra andra farliga funktioner, som att fungera som en åtkomstpunkt för att attackera andra delar av nätverket, stjäla inloggningsuppgifter för personer med Amazon-konton eller installera utpressningstrojaner." Barnes sammanfattar det på följande sätt: "Du kan göra vad du vill med det". Återigen har Amazon sedan dess åtgärdat felet. För att läsa Mark Barnes (tekniska) artikel, klicka här.

Problemet är att röstassistenter också används i stor utsträckning för att transkribera text, dikterad av en användare, meddelanden eller textdokument som till exempel professionella rapporter. Vid cyberattacker är det inte bara personlig information som kan läcka (detta är mycket allvarligt) utan även yrkesuppgifter.

Röstassistenter: hackning av ultraljudet

I april 2018 visade fyra forskare från University of Illinois, Nirupam Roy, Sheng Shen, Haitham Hassanieh och Romit Roy Choudhur, i sitt arbete (som kan ses här) att det är möjligt att använda signaler som är ohörbara för människor, men som röstassistenter uppfattar mycket väl, för att hacka dem. "Våra senaste analyser har visat att ohörbara signaler (ultraljudsfrekvenser) kan skapas på ett sådant sätt att de blir uppfattbara av mikrofoner. Rätt utformat ger detta en hackare möjlighet att tyst tränga sig in och styra högtalare som Amazon Echo och Google Home i hemmen. Ett kommando som "Alexa, öppna garagedörren" kan därmed bli ett allvarligt hot."

Röstassistenter och integritet: råd från CNIL

Den franska Commission Nationale de l'Informatique et des Libertés (CNIL) är en guldgruva för råd om dataskydd. I artikeln Röstassistenter: förstå frågorna kring din integritet förklaras att "även om ditt tal flyger, förblir dina förfrågningar registrerade i molnet [...] I permanent standby kan den anslutna högtalaren aktiveras och oväntat spela in en konversation så snart den tror att den upptäcker nyckelordet".

Vad gör företagen med dessa förfrågningar? De används för att rikta reklamen. "Användarnas reklamprofil fylls därför på med hjälp av användarens olika interaktioner med assistenten (till exempel levnadsvanor: tid för uppstigning, inställning av värmen, kulturell smak, tidigare inköp, intressen etc.)", säger CNIL.

Det är därför ingen överraskning att den globala marknaden för "röstshopping" - köp som utlöses via röstassistenter - uppgick till 40 miljarder dollar 2019, enligt PwC.

För att skydda dina uppgifter rekommenderar CNIL att du*:

Använd högtalare med en knapp för att stänga av mikrofonen;

  • Stäng av/av/ta ut enheten när du inte vill bli hörd. Vissa enheter har ingen på/av-knapp och måste kopplas ur
  • Varna tredje parter/gäster om att samtalen eventuellt kan spelas in (eller stäng av mikrofonen när det finns gäster)
  • Övervaka barnens interaktion med denna typ av enhet (stanna i rummet, stäng av enheten när de inte är med dem)
  • Kontrollera att den är inställd som standard för att filtrera information för barn
  • Anslut tjänster som är användbara för dig, samtidigt som du beaktar riskerna med att dela intima uppgifter eller känsliga funktioner (dörröppnare, larm...)
  • Var medveten om att det du säger framför enheten kan berika din reklamprofil
  • Besök regelbundet instrumentpanelen för att radera historiken över konversationer/frågor som ställts och anpassa verktyget till dina behov. Ställ till exempel in den standardsökmotor eller informationskälla som assistenten använder som standard

Och slutligen: de falska positiva resultaten

Låt oss avsluta vår glada trevliga resa i världen av uppkopplade högtalare med en sista, lättare anekdot som rapporterats av cnetfrance.com: "I maj 2018 spelade Alexa, Amazons röstassistent, i Oregon, nära Portland, in ett amerikanskt pars samtal utan att veta om det. Amazon Echo-cylindern delade sedan denna privata men lyckligtvis ofarliga diskussion och skickade den till kontakt - en kollega till maken. [...] Enligt Amazon "vaknade Echo upp till ett ord som uttalades i en bakgrundskonversation som lät som 'Alexa'". Assistenten skulle då ha förstått att paret frågade henne: "skicka ett meddelande". Alexa skulle då ha frågat: "till vem?" och hört namnet på kollegan i fråga ... till vilken den sedan skulle ha skickat ett röstmeddelande. En "falsk positiv", alltså en feltolkning av fem olika kommandon ".

Var försiktig så att maskinen inte hackar dig utan dess vetskap...

Anteckningar:

Dessa rekommendationer är direkt kopierade/klistrade från CNIL:s webbplats. De ska betraktas som direkta citat, även utan citationstecken.

Incident Response Hotline

Facing cyber incidents right now?

Contact our 24/7/365 world wide service incident response hotline.