Varför är robotiken så uppdelad i separata teknologi-öar?

by

I boken We, Robot från tidigt 2011 går Mark Stephen Meadows med ett rimligt öppet sinne igenom faktiskt existerande robotteknologi och dess sannolika utveckling de kommande tio åren.

Meadows lyfter fram lätt ögonbrynshöjande faktum som att Sydkoreas informationsministerium planerar för en robot i varje hushåll år 2020, med samma självklarhet som han säger att robotar aldrig kommer bli intelligenta. Det mest bestående intrycket av boken är att robotiken på vissa områden kommit längre än jag anade och att forskarna förefaller ha riktigt intelligenta och genomtänkta utvecklingsidéer, medan man inom andra områden verkar ha fastnat på för mig helt oväntade sätt. Framför allt undrar jag varför inte robotarna programmeras att lära sig av sina misstag och att testa sig fram till bästa rörelsemönster och tillvägagångssätt istället för att bara få statiska förprogrammerade funktioner.

Roboten PaPeRo från NEC corp kan känna dofter och även avgöra smaken på ett vin i en oöppnad flaska och även koppla smaken till dess sannolika druva och ursprung och rekommendera en matkombination till vinet.

Det finns robotar som fångar insekter och lever på den energi de kan utvinna ur fångsten.

Det finns militära robotar som är mer eller mindre fjärrstyrda eller autonoma, t.ex. SWORDS, MATILDA och PackBot som är en fjärrstyrda stridsvagnar, Wasp som är en flygande spaningsrobot på 170g, BigDog som är en slags packåsna, Harpy som helt automatiskt flygbombar radarutrustning och det finns förstås gulliga robotar som Sonys Aibo som är till för ren underhållning.

UTSEENDE: Robotar och animationer som påminner om människor ger ofta ett obehagligt och hotfullt intryck, som lik eller zombies eller bara opålitliga och kanske t.o.m. onda. Detta fenomen kallas ”uncanny valley”, den obehagliga dalen (OD). Att flera robotforskare har så svårt att åtgärda OD-problem när det finns en massa forskning om ansiktssymmetri, igenkänning, skönhet och dessutom praktiska exempel på attraktiva människoliknande figurer i datorspel som Final Fantasy är ett exempel på de separata öar som existerar i onödan inom robotiken.

BALANS: Seiko-chan cyklar omkring obehindrat balanserandes på ett hjul precis som Rosey i The Jetsons. BigDog springer runt i terräng med tung packning och klarar en spark i sidan utan att tappa balansen. Andra enbensrobotar med gyroskop kan också studsa vidare efter en tackling. Samtidigt kan många tvåbenta robotar i teknologins framkant, t.ex. ASIMO knappt gå på två ben och endast med yttersta koncentration och irriterande långsamt gå i en trappa. en robot borde kunna sparkas eller kastas utför en trappa och dess gyroskop, ultraljud och radar, samt frånvaro av känslor som överraskning och rädsla, mycket snabbare än en människa kunna rotera rätt i luften och ta trappstegen perfekt. Seiko-chan och BigDog talar för att teknologin redan finns. ASIMOs nivå är i sammanhanget oförklarlig.

KORDINATION: en robot kan med trial and error och organisk inlärning flippa pannkakor i luften. En annan kan spela pingis även om det är på mycket låg nivå

KÄNSLOR och UTTRYCK: Den mest avancerade Jeopardyroboten slår lätt sina mänskliga konkurrenter, men alla chatbots, telesvarsprogram och liknande har ofta mycket svaga språkmotorer med små ordförråd, simpel grammatik och dålig känsla för störande upprepning. I de fall de har en talsynt är denna dessutom på 80-talsnivå – staccato, helt utan naturlig intonation eller naturliga övertoner trots att det finns bättre utvecklade separata funktioner inom alla områden. En robot kan känna av puls, ögonrörelser, ansiktsryckningar, temperatur, talrytm, tonväxlingar, ordval mm och avgöra din sinnesstämning. Med tillräckligt många klassificeringar och organiskt lärande kan den känna dig bättre än du själv och t.o.m. kunna gissa rätt bra vad ditt nästa steg är – ändå har utvecklarna hittills begränsat sig till ett tiotal simpla känslolägen som ”arg”, ”glad” eller ”ledsen”. Ännu värre är att robotarnas förmåga att uttrycka sympati har begränsats till ”glad smiley”, ”ledsen smiley”, ”rak, arg mun” och ”bekymrade ögonbryn” eller ”arga ögonbryn”. Varför utnyttjar man inte Hiroshi Ishiguros arbete med en avgjutning av sitt eget ansikte och mikromotorer och sensorer ingjutna i hela ansiktet och låter ett program analysera och kopiera riktiga ansiktsuttryck med all dess hundratals mikromodulationer, med viss anpassnings- och bedömningshjälp av en människa? Att göra det grafiskt istället för fysiskt borde vara särskilt lätt. ”Hur svårt kan det vara?” fann jag mig tänka gång på gång när jag gick igenom robotiken anno 2011.

Det finns dammsugare med övervakningsfunktioner och som successivt kan lära sig allt om ditt beteende

Det finns automatiska aktiehandelsprogram, både självlärande och förprogrammerade, men inget av dem har lärt sig att förstå vad som händer eller vad kontexten i vad de gör egentligen är. När kan man kombinera organiskt lärande statistikbaserade aktiehandelsprogram som dessutom kan använda Jeopardydatorn, Watsons, språkmotor för att ”förstå” om det är en känd katastroftyp under uppsegling istället för att bara handla på aktiemönster?

Det finns robotlemmar som styrs med tanken och som dessutom kan återge kontaktkänslor i robothanden. Trots välutvecklade möjligheter med mjuka, tryckkänsliga högfriktionsytor har många robotar svårt att greppa föremål utan att skada dem eller tappa dem. Varför programmerar utvecklarna bara rörelsemönster istället för lärandemönster som testar att greppa saker gång på gång, lär sig och sen laddar upp lärandet till en databas för robotoperativsystem som också kan förfinas i en open source community? Det finns ju fruktplockarrobotar som bara tar mogen frukt, även om den är dold bakom löv eller skal. Varför finns det då humanoida robotar som inte ens kan hålla i en burkläsk ordentligt?

Aldebarans robot Neo har sålts i tusentals exemplar och fungerar som en kombination av ett mjukdjur och en elektronisk kalender eller mobiltelefon. Tillsammans med ATRs Robovie är det det närmaste en ”riktig” humanoid robot, om än mycket mindre än en människa robotiken kommit. Samtidigt finns långt mer funktionella industrirobotar hos t.ex. ABB som efter 30 år till slut kommit på idén att sätta ihop två armar istället för en samt ge dem tiotals frihetsgrader istället för 3-4.

Mot slutet av boken presenterar till slut Meadows en hoppingivande faktum från Ishiguro på ATR som hoppas kunna sälja ”tvillingrobotar” som liknar ägaren för så lite som 12 000 USD nästa år och bara 1000 USD år 2014. Förhoppningsvis kan man då också enklare integrera ”öarna” ovan inom balans, språk, tal, intelligens, känslor, utseende och koordination.

Författaren tror inte att robotar kommer bli intelligenta så som Singularitetsanhängare tror. Däremot tror han att avatarer liknande dem i filmen Avatar eller Surrogates kommer bli verklighet. Jag tror att mycket mer än så kommer hända och att Meadows bara saknar tillräcklig inlevelseförmåga för att se hur teknik föder teknik. Om han levde för hundra år sedan kunde han varit en av de som sa att allt redan var uppfunnet… Jag undrar tvärtom varför inte mer redan är uppfunnet i robotsammanhang eller åtminstone bättre integrerat och varför inte självlärandet är mer utbrett när det faktiskt existerar ö-vis.

Det borde finnas mycket konkreta affärsidéer inom robotik/haptik/svag AI som inte kräver extrema utbildningar, kontakter eller pengar, med tanke på hur splittrat och outvecklat området är trots att de viktiga delteknikerna redan existerar. Om inte annat borde man kunna identifiera enstaka bolag med relevant exponering mot robotteknologi vardande.

Etiketter: , ,

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut / Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut / Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut / Ändra )

Google+ photo

Du kommenterar med ditt Google+-konto. Logga ut / Ändra )

Ansluter till %s


%d bloggare gillar detta: