Quantcast
Channel: Kybernetikk og roboter
 Arkiver
Viewing all 161 articles
Browse latest View live

Styrer roboten med tankene

$
0
0

-Jeg bruker ansiktsbevegelser, for eksempel øynene og øyenbrynene. Med brynene velger jeg hvilke ledd på roboten som skal bevege seg, smiler Angel som er masterstudent på NTNU.

Ansiktsgrimasene gir nemlig store utslag i elektrisk aktivitet langs hodet (EEG-signaler). Det samme skjer om Angel konsentrerer seg om et symbol på en dataskjerm, som for eksempel et blinkende lys. I begge tilfellene leser elektrodene av aktiviteten i hjernen, og signalene blir deretter tolket av en prosessor som igjen gir beskjed til roboten om at den skal bevege seg på en forhåndsbestemt måte.

–Jeg kan fokusere på ulike lys på skjermen, og robotbevegelsen avhenger av hvilket lys jeg velger og hvilken aktivitet dette skaper i hjernen, sier Angel. –Ideen om å kontrollere en robot kun ved hjelp av tankekraft, eller aktivitet i hjernebølgene, er fascinerende og futuristisk.

Next Generation Robotics for Norwegian Industry

* Dette er et KMB-prosjekt under Norges forskningsråds BIA-program, og ledes av SINTEF IKT. Prosjektet har åtte partnere: SINTEF, NTNU, Statoil, Hydro, Tronrud Engineering, Glen Dimplex Nordic, SbSeating (HÅG) og RobotNorge.

* Neste generasjon robotteknologi skal bli til gjennom å videreutvikle kompetansen i norske forskningsmiljøer/ deltakende industri, utvikle ny robotteknologi og nye innovative robotløsninger.

* Prosjektet går over fem år (2009–2014) med et budsjett på 36 mill. kroner. Det utdannes fire ph.d.-kandidater i prosjektet – knyttet opp mot NTNU (Institutt for teknisk kybernetikk og Institutt for produksjon og kvalitets teknikk).

Robotskole

Angel Garcia er ikke alene om å klekke ut nye måter å manøvrere roboter på. I kybernetikkmiljøet på NTNU/SINTEF hersker det ren undervisningsstemning om dagen.

I robothallen er medstudent Signe Moe i ferd med å guide sin robot med armbevegelser, mens SINTEF-forsker og veileder Ingrid Schjølberg forsøker å få sin robot med tre fingre, til å gripe objekter på nye måter med et nytt læringsprogram.

SINTEF-forskere Ingrid Schjølberg ønsker seg mer fleksible gripere for industrien. Foto: Thor Nielsen.

SINTEF-forsker Ingrid Schjølberg ønsker seg mer fleksible gripere for industrien. Foto: Thor Nielsen.

 

-Hvorfor denne opplæringsiveren?

- Vel, alle kjenner til industriroboter ved samlebåndet som jobber med å plukke opp, eller sette sammen deler. De er forhåndsprogrammerte og lite fleksible. Med spesialgripere som er tilpasset de enkelte objektene, gjør de den samme manøver gang på gang, forklarer Ingrid Schjølberg.

–Så dere lager noe nytt?

–Vi ser at industrien får store problemer om nye deler blir introdusert og skal gripes på samlebåndet. Da blir det komplisert med å bytte griper og styreprogram for roboten. Dette vil vi forenkle. Vi ønsker også at roboter skal kunne programmeres mer intuitivt og ikke bare på tradisjonell måte via et panel med knapper som man trykker på.

 

“Vi ønsker du skal flytte deg hit”

Oppgaven til Signe Moe har derfor vært å finne ut hvordan menneskelige bevegelser kan gjenspeiles i roboten. Dette har hun løst gjennom et system der hun guider roboten ved hjelp av et Kinect-kamera som benyttes i spillteknologi.
–Hvem som helst kan nå egentlig styre roboten. Forleden var elever fra en 6.klasse innom robothallen. De styrte roboten uten vansker fordi de er vante med dataspill, forteller Signe.

Hun stiller seg halvannen meter foran kameraet og demonstrerer:
–Jeg starter med å holde opp høyrehanda og foreta et klikk i lufta som gjør at kameraet registrerer meg og sporer handa mi. Når jeg nå beveger handa mi opp i lufta og til høyre, ser du at roboten speiler bevegelsen.

http://www.youtube.com/watch?v=JgdnMFKELAA

Det ser enkelt ut, men hva skjer…?

– Kinect-kameraet har ferdige algoritmer som kan spore hendene mine. Alt vi må gjøre er å regne disse dataene om til posisjonen vi ønsker til roboten, og sette opp et kommunikasjonssystem mellom sensoren i kamera og robot. Roboten får da inn en referanse ala “vi ønsker du skal flytte deg hit”, og en innebygd regulator regner så ut det ut hvordan den skal komme seg dit og hvor mye strøm som må settes på motorene for å sørge for en slik forflytning.”

Ny læring via kamerabilder og sensorer

Ingrid Schjølberg viser oss robotgriperen som har tre fingre. Å lære en robot nye måter å gripe på, vil være nyttig for industrien. Derfor tester forskerkollegene nye metoder.

– Vi kombinerer sensorer i robothanda med bilder fra et Kinect-kamera som identifiserer delen som skal fanges. Roboten kan da lære seg selv hvordan det er lurt å gripe på nye måter. Den prøver ut ulike grep slik vi mennesker gjør når vi skal gripe en ukjent ting. På forhånd har vi satt opp noen kriterier for hva som er et bra og dårlig grep. Roboten tester flere grep, og gjennom en poengsum får den skryt eller skjenn som respons, smiler Schjølberg.

–Er denne metoden satt ut i livet?
– Dette systemet er ikke industrialisert, men vi har det oppe og går her i hallen vår. Neste steg kan bli å installere roboten hos en av industriaktørene som deltar i prosjektet.

Prosjektet Next Generation Robotics for Norwegian Industry, favner nemlig om alle delaktivitetene som bedrives, og her er industripartnere som Statoil, Hydro, Glen Dimplex og Haag med.

–De finansierer arbeidet, men er også involvert gjennom caser og problemstillinger. I tiden som gjenstår av prosjektperioden, skal vi arbeide med å lage softwaren og systemet mer robust.

 


Forsker på Sheila, spiller med Margaret

$
0
0

Kunstig intelligens (AI – «artificial intelligence») brukes for å gi datamaskiner og dataprogrammer mest mulig intelligent oppførsel. De som arbeider med dette, konstruerer datamaskiner som er intelligente i den forstand at de kan løse problemer og lære av egne erfaringer.

Axel Tidemann er postdoktor ved NTNUs Institutt for datateknikk og informasjonsvitenskap. Han arbeider med Smart Grid, framtidens strømnett. Men doktorgraden tok han på å modellere en kunstig intelligent trommeslager.

AI-trommisen Sheila

Tidemanns AI-trommis fikk navnet Sheila, oppkalt etter Sheila E, fordi han var stor fan av Prince og fordi Sheila E spilte i bandet til Prince på 80-tallet.

Til å begynne med kan den kunstige intelligensen ingenting. Den er som et nyfødt barn og må trenes opp. Etter hvert som Sheila lærer, blir den flinkere.

– Jeg modellerte Sheila slik at den lærte seg selv å spille trommer ved å etterligne hvordan fem ekte trommiser spilte, sier Tidemann.

Først programmerte han plattformen. En AI «lever» oppå plattformen; som ånden i maskinen. Den kunstige trommeslageren er ikke en fysisk robot, men visualiseres på dataskjermen.

En forenklet modell av menneskehjernens nevrale nettverk ble brukt som læringsmetode i Sheila. Når Sheila lærer, lærer den nemlig slik vi lærer og slik vår hjerne videreutvikler nevroner og synapser. Sheila lærer som barnet: Prøver og feiler og gjør noe riktig og noe galt.

http://www.youtube.com/watch?v=_iECpwjZRQw

Sheila spiller med fem stiler

Menneskelige trommeslagere har individuelle spillestiler. Spillestil er variasjoner i spilling på lavnivå og høynivå. Alle trommiser varierer på begge nivåer, men i ulik grad.

Timing er det ene lavnivået, og svært viktig for trommiser. Timing betyr at trommisen spiller før, rett på eller etter tempoet, musikkpulsen. Jazztrommiser er typisk frampå og bluestrommiser bakpå. I popmusikk er det mye programmerte trommer og trommiser slår rett «på slaget».

Dynamikk er det andre lavnivået og handler om hvor hardt trommisen slår. Variasjon i dynamikk og tempo er det som til sammen utgjør en «groove».

Høynivå variasjoner handler om overganger, også kjent som «breaks». Her går trommisen bort fra figuren i låten og legger på slag eller tar bort slag. Her kan virkelig trommisen utfolde seg kreativt.

Lyd og bilde = syn og hørsel

Sheilas lærere var fem ekte trommeslagere som spilte samme låt på samme trommesett. Det ble gjort lydopptak da de fem spilte. Markører på kroppen gjorde 3D-opptak av bevegelsesmønstrene. Fem infrarøde kameraer var montert over og rundt trommesettet.

Lyd og bilde er hørsel og syn hos Sheila. Da Sheila hadde hørt og sett trommisen skulle den spille likedan selv.

Men hvordan vet vi om Sheila lærer rett?

– Den kunstige intelligensen måler sin egen oppførsel mot det den forsøker å lære. Så korrigerer den seg. Jeg trenger altså ikke fortelle hva som må endres på, den finner den ut selv.

Hva kan trommemodellering brukes til?

Ingen musikkprogrammer i programvareindustrien har modeller for å lære spillestil. Forskningen kan derfor lages til et produkt for de som vil ha menneskelige trommespor laget av en datamaskin.

Et eksempel på andre anvendelser er PlayStation-spillet Guitar Hero. AI-modellering kan brukes til å lage en mer naturtro visuell representasjon av hva man spiller.

– Tidenes soloprestasjon på «instrumentet» hjemme i stua vil da kunne se og høre ut som den faktiske musikeren ville spilt den, avslutter Tidemann.

16. mai får 100 millioner seere se ham spille ekte trommer sammen med Margaret Berger i semifinalen i Melodi Grand Prix.

Robotar får syn og samarbeidsevner

$
0
0

Industrirobotane fungerer i dag som evigheitsmaskiner, som repeterer same programmerte oppgåva om igjen og om igjen. Pr. dags dato klarar dei ikkje å utføre ei oppgåve om produkta varierer i dimensjon, eller om dei ikkje veit kor alle delane er på førehand. Dette gjer at ekspertar gjerne omtalar dei som for lite fleksible.

Ei ny løysning utvikla ved Institutt for produksjons- og kvalitetsteknikk (IPK) ved NTNU, vil derimot gje industriroboten auge, kraft og evna til å montere saman og sveise hovudkomponentar i store jetmotorar, utan menneskeleg hjelp i prosessen.

Revolusjonerer industrien

Lars Tingelstad ser til at alt er slik det skal vere med industriroboten han nyttar i sitt forskingsprosjekt. Foto: Maria Gilje Torheim

Lars Tingelstad ser til at alt er slik det skal vere med industriroboten han nyttar i sitt forskingsprosjekt.
Foto: Maria Gilje Torheim

På IPK sin robotlab står doktorgradsstipendiat Lars Tingelstad og trykkjer på programmeringseininga til industriroboten Nachi SC15F. Han sjekkar at alt går riktig føre seg.

Produksjonsteknikkmiljøet på NTNU/SINTEF jobbar for tida på spreng for å finne nye løysingar som vil revolusjonere industrien ein gong for alle. Ei av desse er Tingelstad sitt prosjekt. Det byrja i det små i 2010 som ein del av ein mastergrad som seinare vart utvida til doktorgradsarbeid. Professor Terje K. Lien har vore Tingelstad sin veileiar, og har i stor grad bidrege i arbeidet med å gjennomføre prosjektet.

Samanstilling av komponentar

– Dette prosjektet går ut på ei samanstilling av den bakre store komponenten i flymotorane til nye Boeing 787 Dreamliner og 747-8, forklarar Tingelstad.

Han tek seg ein liten pustepause, før han prøver å fortelje kortfatta om eit stort og tidkrevjande prosjekt han har arbeidd med i over tre år.

– Ein har ei eining beståande av tre hovudkomponentar: ein senterdel og ei rekkje komponentar som står inn mot senterdelen, og komponentar som igjen fyller gapa mellom senterdelen og dei komponentane som går inn mot denne. Komponentane har som oppgåve at dei til dels skal rotere luftstraumen ut av motoren og til dels forankre motoren i venga, forklarar Tingelstad.

Gjev roboten auge

Robotar vert i større grad enn før brukt til sveisearbeid i industrien, men ifølge Tingelstad sin nye veileiar, professor Olav Egeland, vil det i nokre høve oppstå problem ved å nytte robotar til dette arbeidet.

– Ein robot som vert nytta i dag, må vere satt opp på ein nøyaktig måte. Om det er noko feil i det du skal sveise på, vil ein operatør sjå denne feilen, ein robot vil ikkje, fortel han.

I prosjektet til Tingelstad kombinerer ein sveising med kamerasystem, noko som gir roboten ”menneskesyn” og moglegheit til å korrigere rørsleprogrammet. Dermed kan den korrigere feil på delane eller feil plassering av delane.

Ifølge Egeland har sveisinga kunne vore dårleg utført ved at industrirobotane mangla syn, og jobba i blinde.

– Det vil også vere ein fordel at roboten no får moglegheit til å bruke kraft og kjenne på reaksjonskrafta, legg professor Lien til.

Nyttar kamera og laser

Roboten sine “auge”, liknar i stor grad på menneskeleg syn, og den kan med dette korrigere med stor nøyaktigheit.

Dette skuldast at ein har kombinert kamerasystem med eit lasersystem, som nyttar presise laserdistansemålarar.

– Dette gir robotane moglegheita til å måle distansar på under ein hundredels millimeter, altså tynnare enn eit hårstrå, fortel Tingelstad.

Må korrigerast

EU-prosjekt

  • Prosjektet ligg under delprosjektet IFaCom, som er ein del av EU si satsing innan ”Zero defect manufacturing”.
  • Utviklinga til Lars Tingelstad er venta å bli tatt i bruk av flydelprodusenten GKN Aerospace, som har si norske avdeling på Kongsberg, om mellom 2-4 år.
  • Visjonen til IFaCOM er å oppnå nær null feil på produksjonen av varer. Målsetnaden er å forbetre produksjonsmetodane og konkurranseevna for avanserte europeiske bedrifter innanfor produksjonen av flymotorkomponentar og verktøymaskiner.
  • Prosjektet er i førarsetet innan forskinga på området, og har ei totalramme på 10,5 millionar euro.
Tidlegare nytta ein maskinerte delar innan produksjonen av desse komponentane til flymotorar, men det oppstod eit problem då ein gjekk over til å bruke delar som var støypte.

– Desse støypte delane har dårlegare form og dimensjonsnøyaktigheit enn dei maskinerte delane. I dag nyttar ein eit svært komplisert fikstur for å halde delane på plass. Vi ynskjer å finne ei løysning med eit mykje enklare og billegare fikstur som kan nyttast av robotane som heftsveisar delane i korrekt posisjon, fortel Tingelstad.

Robotsamarbeid

I den nye utviklinga vil robotane også kunne samarbeide med kvarandre, ved at ein robot held og vender på delen som skal sveisast, den andre sveiser medan den tredje roboten køyrer kamera som måler avstandane. Dette er ein teknologi som ikkje er tatt i bruk tidlegare.

– Det er heilt i front forskingsmessing å ta i bruk slike løysingar. Det har vore gjort forsøk, men det har ikkje vorte implementert på robotar som vert nytta i industrien før, fortel Tingelstad.

 

Kappløpet ned mot Atlanterhavetsdjupet

$
0
0
Målet var å lage ein enkel og rimelig robot. Dei skrella ned behova til eit minimum, altså ei glasklokke som toler enormt trykk, utstyrt med sensorar, HD-kamera, led-lys og litiumbatteri. Foto: Promare

Målet var å lage ein enkel og rimelig robot. Dei skrella ned behova til eit minimum, altså ei glasklokke som toler enormt trykk, utstyrt med sensorar, HD-kamera, led-lys og litiumbatteri.
Foto: Promare

Dei store havdjupa bærer på mange løyndomar. Ein ny lågkostnad undervassrobot utvikla ved NTNU gjev oss ny kunnskap om livet langt der nede i havet. Uvanlege organismar frå 8000 meters djup vert no studert av forskarar frå mange kantar av verda, og det er første gong botnlivet i djupa i Atlanterhavet er filma.

Roboten som Fredrik Søreide ved NTNU har vore initiativtakar for, gjer at det no blir enklare og rimelegare å dykke djupt. Truleg står vi føre ei storstila kartlegging av kva som skjuler seg på botnen.

Twitra på 11 000 meter

Nokre vil opp på verdas høgste toppar. Andre vert tiltrekt av dei djupaste hava. Marianegropa i Stillehavet, verdas djupaste med sine 11 000 meter, fekk sitt første besøk allereie i 1960. Da nådde den amerikanske ubåten Trieste med mannskap botnen. Drivne av både forskartrong og eventyrlyst har fleire freista å kome seg ned på botnen sidan da.

Men, først 35 år seinare fekk Marianegropa eit nytt besøk, denne gong av eit fartøy utan mannskap. Det var japanarane som sende ned ein svært avansert undervassrobot til fleire millionar kronar og henta opp organismar frå botnen. I 2009 sende amerikanarane ein annan fjernstyrt farkost ned i Stillehavsdjupet. Den kom opp att med bilete og film.

Meir enn 50 år etter at dei første menneska dykka ned i Marianegropa, fann den andre menneskelege nedstiginga stad. Hollywood-regissøren James Cameron, mannen bak filmane «Avatar» og «Titanic», twitra i fjor vår frå 11 000 meters djup, i ein kostbar ubåt med mykje teknisk utstyr.

Sjå reportasje frå National Geographic om Camerons djupdykk.

Først ned i Atlanterhavet

– Ein veit mindre om dei store havdjupa enn ein veit om månen si overflate, seier Fredrik Søreide som er ferd med å utforske dei.   Kartillustrasjon: Promare

– Ein veit mindre om dei store havdjupa enn ein veit om månen si overflate, seier Fredrik Søreide som er ferd med å utforske dei.
Kartillustrasjon: Promare

I kappløpet om å komme først ned til dei store havdjupa i Atlanterhavet, vann Fredrik Søreide og Promare-gruppa. I fjor haust bringa roboten dei har utvikla, med seg tre timar videoopptak samt levande organismar frå meir enn 8000 meters djup i Puerto Rico-gropa.

– I ti år har eg tenkt på dette. Vi hadde ein ide om at eit fartøy for store djup måtte kunne lagast enklare og billegare. Vi skrella ned behova til eit minimum, altså ei glasklokke som toler enormt trykk og sensorar. Vi satsa på eit lågkostprodukt, fortel Fredrik Søreide ved Marin teknikk ved NTNU.

Promare er ein amerikansk forskingsstifting kor velhavande amerikanarar skyt inn pengar til forsking. Søreide var med og starta stiftinga i 2001, og det er Promare som har finansiert roboten og ekspedisjonen.

I utviklinga av roboten 11k har fleire land og miljø vore involvert. Blant anna har AURLab ved NTNU bidrege. Søreide laga skissene mens Robert Staven som arbeider ved AURLab, bygde 11k.

Roboten vart først testa ut i Trondheimsfjorden, frå forskingsfarkosten Gunnerus. Deretter vart den testa i ein trykktank på Notodden som simulerte 4000 meter djup. Etter nokre justeringar, bar det til Atlanterhavet sitt djupaste djup, Puerto Rico-gropa.

Film frå djupet

– Ein veit mindre om dei store havdjupa enn ein veit om månen si overflate, seier Fredrik Søreide som er ferd med å utforske dei.   Foto: Promare

– Ein veit mindre om dei store havdjupa enn ein veit om månen si overflate, seier Fredrik Søreide som er ferd med å utforske dei.
Foto: Promare

Saman med roboten, vart det òg senka ned ein sekk med fisk som fungerte som åte. Dermed kunne forskarane bringe organismar med opp til overflata. Dei vart med ein gong lagt i steril oppbevaring.

HD-kamera, led-lys og litiumbatteri sørgde for videoopptak frå djupet.

– Dess djupare kameraet vart senka dess mindre dyr var det å sjå, men desto meir amfipodar, eit slags rekedyr. Heile svermar med amfipodar. Kameraet fanga også inn to botndyr: sjøpølse og eit krabbeliknande dyr.

Amfipodane vert no undersøkt av Oceanlab ved universitetet i Aberdeen, i tillegg til NTNU. Det skal blant anna gjerast genseksvensering av dyra. Forskarane er sikre på at dei vil kome til å definere fleire nye artar under kartlegginga.

Nytt dykk til hausten

Amfipodene er ein art som tidlegare berre er funne i dei djupe delane av Stillehavet. Det er ingen moglege bindeledd mellom dei store djupa i Stillehavet og Atlanterhavet, og forskarane er opptekne av å finne ut korleis og kvifor denne spesielle arten finst på ekstremt store havdjup.

I Marianegropa i Stillehavet, veit ein med sikkerheit at det finst ikkje fisk. I Puerto Rico-gropa derimot, trur forskarane at det finst fisk, fordi det tidlegare er tråla opp fisk frå svært djupt vatn i området. Allereie til hausten kan Søreide og co få svar på dette.

– Vi er i ferd med å vidareutvikle prosjektet og byggje ein ny fjernstyrt undervassfarkost med kabel. Det gjer at vi kan sjå bileta samstundes som roboten filmar og at vi kan styre han ut frå kva vi meiner er interessant å filme, seier Søreide.

– Vi har derfor inngått eit samarbeid med selskapet Sperre AS på Notodden for å utvikle denne teknologien.

Det er dessutan venta at Richard Branson, eventyrar som også eig flyselskapet Virgin, skal bli det første mennesket som dykkar ned til botn i Atlanterhavet i løpet av 2013.

Dykkar i verdas eldste innsjø

Til neste år tek Fredrik Søreide og Promare undervassforskinga eit steg vidare, til verdas nest djupaste og nest største innsjø, Lake Tanganyika i Tanzania. Berre Bajkalsjøen i Russland er større og djupare.

– Lake Tanganyika er verdas eldste innsjø. Ein veit ingenting om kva som finst i djupet der, så dette er kjempespanande, seier Fredrik Søreide.

Her kan du lese meir om ekspedisjonen og sjå klipp frå videoen teken i Puerto Rico-gropa.

 

Dei store havdjupa skjuler mange løyndomar. Ein ny lågkostnad undervassrobot utvikla ved NTNU gjev oss ny kunnskap om livet langt der nede. Uvanlege organismar frå 8000 meters djup vert no studert av forskarar frå mange kantar av verda, og det er første gong botnlivet i djupa i Atlanterhavet er filma.

Roboten som Fredrik Søreide ved NTNU har vore initiativtakar for, gjer at det no blir enklare og rimelegare å dykke djupt. Truleg står vi føre ei storstila kartlegging av kva som skjuler seg på botnen.

Twitra på 11 000 meters djup

Nokre vil opp på verdas høgste toppar. Andre vert tiltrekt av dei djupaste hava. Marianegropa i Stillehavet, verdas djupaste med sine 11 000 meter, fekk sitt første besøk allereie i 1960. Da nådde den amerikanske ubåten Trieste med mannskap botnen. Drivne av både forskartrong og eventyrlyst har fleire freista å kome seg ned på botnen sidan da.

Men, først 35 år seinare fekk Marianegropa eit nytt besøk, denne gong av eit fartøy utan mannskap.  Det var japanarane som sende ned ein svært avansert undervassrobot til fleire millionar kronar og henta opp organismar frå botnen. I 2009 sende amerikanarane ein annan fjernstyrt farkost ned i Stillehavsdjupet. Den kom opp att med bilete og film.  

Meir enn 50 år etter at dei første menneska dykka ned i Marianegropa, fann den andre menneskelege nedstiginga stad. Hollywood-regissøren James Cameron, mannen bak filmane «Avatar» og «Titanic», twitra i fjor vår frå 11 000 meters djup, i ein kostbar ubåt med mykje teknisk utstyr.

Sjå reportasje frå National Geographic om Camerons djupdykk.

Først ned i Atlanterhavet

I kappløpet om å komme først ned til dei store havdjupa i Atlanterhavet, vann Fredrik Søreide og Promare-gruppa. I fjor haust bringa roboten dei har utvikla, med seg tre timar videoopptak samt levande organsimar frå meir enn 8000 meters djup i Puerto Rico-gropa.

– I ti år har eg tenkt på dette.  Vi hadde ein ide om at eit fartøy for store djup måtte kunne lagast enklare og billegare. Vi skrella ned behova til eit minimum, altså ei glasklokke som toler enormt trykk og sensorar. Vi satsa på eit lågkostprodukt, fortel Fredrik Søreide ved Marin teknikk ved NTNU.

Promare er ein amerikansk forskingsstifting kor velhavande amerikanarar skyt inn pengar til forsking. Søreide var med og starta stiftinga i 2001, og det er Promare som har finansiert roboten og ekspedisjonen.

I utviklinga av roboten 11k har fleire land og miljø vore involvert. Blant anna har AURLab ved NTNU bidrege. Søreide laga skissene mens Robert Staven som arbeider ved AURLab, bygde 11k.

Roboten vart først testa ut i Trondheimsfjorden, frå forskingsfarkosten Gunnerus. Deretter vart den testa i ein trykktank på Notodden som simulerte 4000 meter djup. Etter nokre justeringar, bar det til Atlanterhavet sitt djupaste djup, Puerto Rico-gropa.

Film frå djupet

Saman med roboten, vart det òg senka ned ein sekk med fisk som fungerte som åte. Dermed kunne forskarane bringe organismar med opp til overflata. Dei vart med ein gong lagt i steril oppbevaring.

HD-kamera, led-lys og litiumbatteri sørgde for videoopptak frå djupet.

– Dess djupare kameraet vart senka dess mindre dyr var det å sjå, men desto meir amfipodar, eit slags rekedyr. Heile svermar med amfipodar. Kameraet fanga også inn to botndyr: sjøpølse og eit krabbeliknande dyr.

Amfipodane vert no undersøkt av Oceanlab ved universitetet i Aberdeen, i tillegg til NTNU. Det skal blant anna gjerast genseksvensering av dyra. Forskarane er sikre på at dei vil kome til å definere fleire nye artar under kartlegginga.

Nytt dykk til hausten

Amfipodene er ein art som tidlegare berre er funne i dei djupe delane av Stillehavet. Det er ingen moglege bindeledd mellom dei store djupa i Stillehavet og Atlanterhavet, og forskarane er opptekne av å finne ut korleis og kvifor denne spesielle arten finst på ekstremt store havdjup.

I Marianegropa i Stillehavet, veit ein med sikkerheit at det finst ikkje fisk. I Puerto Rico-gropa derimot, trur forskarane at det finst fisk, fordi det tidlegare er tråla opp fisk frå svært djupt vatn i området. Allereie til hausten kan Søreide og co få svar på dette.

 – Vi er i ferd med å vidareutvikle prosjektet og byggje ein ny fjernstyrt undervassfarkost med kabel. Det gjer at vi kan sjå bileta samstundes som roboten filmar og at vi kan styre han ut frå kva vi meiner er interessant å filme, seier Søreide.

– Vi har derfor inngått eit samarbeid med selskapet Sperre AS på Notodden for å utvikle denne teknologien.

Det er dessutan venta at Richard Branson, eventyrar som også eig flyselskapet Virgin, skal bli det første mennesket som dykkar ned til botn i Atlanterhavet i løpet av 2013.

Dykkar i verdas eldste innsjø

Til neste år tek Fredrik Søreide og Promare undervassforskinga eit steg vidare, til verdas nest djupaste og nest største innsjø, Lake Tanganyika i Tanzania. Berre Bajkal-sjøen i Russland er større og djupare.

– Lake Tanganyika er verdas eldste innsjø. Ein veit ingenting om kva som finst i djupet der, så dette er kjempespanande, seier Fredrik Søreide. 

Her kan du lese meir om ekspedisjonen og sjå klipp frå videoen teken i Puerto Rico-gropa.

Måler lystgass i bondens åker

$
0
0

På vårparten spres det mineralgjødsel utover åkrene for å gi grøde og vekst. Gjødslet inneholder blant annet nitrogen som kan omdannes til drivhusgassen N2O (lystgass).

Om noe av gjødslet fordeles utover i vekstsesongen og justeres etter hvordan næringsbehovet til plantene varierer, får vi det som kalles presisjonsgjødsling.

Forskernes hypotese er at dette ville være bra for bondens økonomi siden overgjødsling regnes som lite økonomisk – og at riktigere gjødsling med stor sannsynlighet ville gagne miljøet.

OM SPEKTRAL ANALYSE

  • I Multisensprosjektet handler spektral analyse om å finne hvilke gasser som er tilstede og i hvor stor mengde.
  • Når infrarød stråling sendes gjennom en gass vil noe av strålingen bli borte siden hver gass demper de ulike bølgelengdene/fargene ulikt.
  • Hver gass absorberer typisk et hundretall av disse fargenyansene. Et slikt sett av absorpsjon kaller man gjerne et "fingeravtrykk" for gassen. Alle gasser har ulikt fingeravtrykk.
  • Rådataene går inn i computeren og analyseres. Dataprogrammet finner ut hvor mye det er av hvert "fingeravtrykk".
  • Det nye instrumentet benytter et Michelson-interferometer til å generere rådata.
  • Måleren har en oppløsning på 0,25 – 0,4 cm-1 mellom 2 og 6 µm. Det betyr at det kan skilles mellom ca. 10000 fargenyanser (bølgelengder) i den delen av det infrarøde området som benyttes.
  • SINTEF IKT har anvendt spektroskopi på en lang rekke industriprosjekter de siste årene, målinger på silisiumdioksid og silisiumkarbid ved Elkem Thamshavn, gassutslipp fra mangan-produksjon ved Eramet Sauda og Kvinesdal Jernverk, og målinger i forbindelse med rånelukt fra svinekjøtt for Animalia og Nofima Matforsk.


Bredt anlagt prosjekt

Det er Bioforsk som leder det store, internasjonale forskningsrådsprosjektet Multisens (2011-2015). Sammen med bl.a. Universitetet for miljø og – biovitenskap (UMB) skal det dokumenteres hvilken effekt presisjonsgjødsling vil ha på lystgassutslipp.

En rekke prosjektpartnere er inne i de fem arbeidspakkene: Yara, Adigo, Institute of Life Sciences, Gøteborg Universitet, Cornell University, USA og det tyske University of Hohenheim.

I prosjektet arbeides det også med å utvikle nye teknikker for å optimalisere gjødsling og sprøyting mot ugress og sykdommer i norsk hvetedyrking.


Lang erfaring med gassmåling

Ved SINTEF har måling av gasser vært et sentralt emne i mange år, og forskerne overvåker i dag luftkvaliteten i den internasjonale romstasjonen ISS via gassmålesystemet ANITA.

Ideen om å kunne bruke noe av det grunnleggende prinsippet i ANITA på et instrument i hveteåkeren, ble luftet tidlig for Bioforsk. Men å kjøpe et instrument over disk –  for så å tilpasse teknologien, ville koste rundt én million, så det var lite aktuelt for begge parter.

Bioforsk ønsket likevel mer testing og eksperimentering rundt emnet, og etter at SINTEF-forskerne lyktes i å få tre millioner i interne finansieringsmidler noen år seinere, utviklet de en prototyp som Bioforsk gjerne ville videreforedle. Deretter startet samarbeidet, og SINTEF ble med på en av delpakkene i det store prosjektet.


Behov for kunnskap

Audun Korsæth på Bioforsk presiserer at man ikke har ambisjoner om å levere noen form for ferdig pakkeløsning til bønder:
–Dette er et rent forskningsprosjekt der vi legger grunnlaget for eventuelle senere kommersialiseringer. Utfordringen ligger ikke bare i å utvikle selve teknologien, men at vi også må skaffe til veie nødvendig kunnskap i skjæringspunktet mellom teknologi og agronomi og finne ut hvordan vi skal nyttiggjøre oss teknologien i praksis.


Drone med bøtter

Prototypen av SINTEFs måleinstrument er nå klar, og skal testes ut videre på en selvgående robot som kan gjøre gassmålinger ute på åkeren.

Det ubemannede bakkekjøretøyet er utviklet av Adigo AS som arbeider med industriell produktutvikling, og er eksperter på design og styring av autonome feltroboter.

Dronen har to bøtter/sensorkamre som senkes mot bakken for å samle lystgass ved måling, og målingene skjer etter en viss tid når gassutslippet fra jorda er samlet opp i bøtta og en pumpe har brakt lufta videre til selve måleinstrumentet.

– Utslipp av lystgass varierer mye både i tid og rom. For å kunne finne effektive metoder for å redusere lystgassutslippene fra landbruket, trenger vi derfor omfattende måleserier. Tradisjonelle metoder for å måle gassutslipp er tungvinte og dyre. Den nye metoden vil åpne for automatiske målinger og bringe oss et langt steg framover i prosessen, sier Korsæth.


Gasser med ulike “fingeravtrykk”

måleinstrument lystgass

Måleinstrumentet som benyttes i Multisensprosjektet, måler gasser fra jordbunnen. Foto: SINTEF.

– Spektral analyse handler om å finne hvilke gasser som er tilstede i et miljø – og i hvor store mengder. Når vi sender lys gjennom en gass, vil noe av lyset bli borte siden hver gass demper flere av bølgelengdene/fargenyansene, forklarer Karl Haugholt ved SINTEF IKT.

Siden de forskjellige gassene absorberer ulike deler av det infrarøde spekteret, får hver gass sitt eget ”fingeravtrykk”. Forskerne måler rett og slett hvor mye av hver bølgelengde i det infrarøde spekteret som blir borte.

– Instrumentet kan skille mellom ca. 10.000 ulike bølgelengder i området 2-6 µm. Det må man kunne kalle en bra oppløsning sier Haugholt.

Rådataene går inn i computeren og dataprogrammet finner ut hvor mye det er av hvert “fingeravtrykk”. Utfordringen for forskerne er å skille gassene fra hverandre og å detektere selv lave konsentrasjoner.

For å sjekke at dataprogrammet har regnet rett og finner alle de gassene som faktisk er til stede, lager programmet også et kunstig transmisjonsspekter ved å legge sammen fingeravtrykk fra de målte gassene i det estimerte blandingsforholdet.
– Dette spekteret bør ligne på det målte signalet. Hvis det ikke gjør det, har det sannsynligvis kommet inn en gass vi ikke har tatt hensyn til. Skal vi få gode målinger må vi kalibrere for denne gassen og ta den med i beregningene, sier Haugholt.

Robust instrument

– Da vi startet opp, var tanken å bruke billige instrumenter utviklet av andre – siden det er gassmålingene som er det essensielle for oss, forteller Karl Henrik Haugholt. – Men vi endte opp med å lage instrumentet selv.

Det nye instrumentet har blitt et lavkostinstrument, med god oppløsning i forhold til andre instrumenter som påberoper seg å være robuste og bærbare.

Forskerne har brukt resultatene fra ANITA for å finne ut hvilken oppløsning man må ha for å skille mellom ulike gasser. Med for lav oppløsning vil man for eksempel ikke kunne skille ulike hydrokarboner fra hverandre.
–Den nye måleren har blitt robust og enkel å ta med seg. Det tåler et røffere miljø og mer av vibrasjoner enn mer kostbare instrumenter, sier Haugholt.

Slangerobot på Mars

$
0
0

Fram til i dag har NASA landsatt fire rovere på Mars. Dette er soldrevne roboter med seks hjul og robotarmer som kan ta jordprøver og betjene kamera. Sojourner landet i 1997, Spirit og Opportunity i 2003, mens den mer avanserte Curiosity ble landet i fjor sommer.

FAKTA:

  • ESA er oppdragsgiver for en mulighetsstudie av SINTEF (juni-desember 2013). Finansiering : 0,5 million kr. Også CIRiS-  ved NTNU Samfunnsforskning, deltar, og skal se på selve gjennomføringen og de operasjonelle aspektene.
  •  NASA har så langt landsatt fire rovere på Mars: Sojourner i 1997, Spirit og Opportunity i 2004, og Curiosity i 2012. Sistnevnte er avansert med eget innebygget laboratorium.
  • Se NASA's oppdatering på YouTube
  • ESA planlegger å landsette en rover på Mars i 2018

 

– Framkommelighet er en utfordring. Roveren Spirit gikk tapt etter at den kjørte seg fast i sanden på Mars.  Kjøretøyene kommer heller ikke til på mange steder det skal tas prøver, forteller Pål Liljebäck og Aksel Transeth på SINTEF IKT.

Forskerne er i gang med en mulighetsstudie på oppdrag fra ESA. Å kombinere rover som kan forflytte seg over større avstander – med en slangerobot som kan krype på bakken og nå fram til utilgjengelige steder, kan gi mange muligheter. Det tror både ESA og forskerne.

I dag analyseres jordprøver fra Mars ombord i selve roveren, og  resultatene kommuniseres tilbake til jorda. Men ESA vil også se på muligheter for å få returnert jordprøver til jorden. Slangeroboter kan bistå i innhenting av slike prøver ettersom de muliggjør tilkomst på trange steder hvor rovere ikke kommer til.

 

En arm blir slangerobot

–Vi ser på flere alternativer for at rover og robot kan jobbe sammen. Siden roveren har en kraftig energikilde, kan den tilføre slangeroboten strøm gjennom en kabelkobling mellom roveren og slangeroboten. Skulle roboten bruke egne batterier, ville den gå tom for strøm og dermed gå tapt, sier Aksel Transeth.

–En mulighet er at slangeroboten utgjør den ene armen på kjøretøyet, og at den kan koble seg av/på så den kan slippes ned på bakken og krype rundt på egen hånd.

Forskerne ser for seg at mens roveren kan forflytte seg over lengre strekninger, kan slangeroboten koble seg av og krype inn til små, utilgjengelige områder.  En kabel kobler roboten til kjøretøyet. I kabelen er det strøm og trekkraft siden kabelen kan vinsjes tilbake til roveren. Kommunikasjonen mellom de to skjer via kabelsignaler.

–Koblingen mellom robot og rover gjør at slangeroboten muligens også kan bistå om kjøretøyet skulle sette seg fast, sier Liljebäck.  –Da kan roboten som slippes ned på bakken, kveile seg rundt en stein for så å trekke roveren løs ved å kjøre kabelvinsjen som trekker slangeroboten mot roveren.

SINTEF-forskerne Pål Liljebäck (t.v.) og Aksel Transeth leker seg med slangeroboten Wheeko. I bakgrunnen Knut Robert Fossum ved CIRiS, NTNU, som er partner i prosjektet.

SINTEF-forskerne Pål Liljebäck (t.v.) og Aksel Transeth leker seg med slangeroboten Wheeko. I bakgrunnen Knut Robert Fossum ved CIRiS, NTNU, som er partner i prosjektet.


Slangeroboten heises opp

Et annet scenario for hvordan kjøretøy og slangerobot kan samarbeide, er at roboten er plassert under eller oppe på roveren. Det vil kreve en heisemekanisme som plukker opp roboten, får løftet den opp og koblet den til roveren.

Forskerne presiserer at de nå foretar en konseptstudie. Det er noe annet å være på Mars enn på jorda, og det må sjekkes om teknologien for en slangerobot også kan fungere på planeten.
I desember vil det foreligge mer konkrete konsepter, men en del av mulighetsstudien er nettopp å identifisere utfordringer og “stoppere” som dette.

 

Rapport til ESA

–På Avdeling for Anvendt kybernetikk har vi jobbet med slangeroboter i mange år i tett samarbeid med Institutt for Teknisk kybernetikk ved NTNU, og miljøet vårt har lenge hatt ideer som dette, sier Transeth og Liljebäck. –Først nå ser vi anvendelsene begynner å komme, og det er flott å få anledning til å orientere ESA om framtidsteknologien på feltet. Studien vår vil ende opp i en rapport som sendes rundt i ESA-systemet. Det vi håper er at ESA trigger på idéene våre og at det blir satt igang et målrettet utviklingsløp rundt et slikt system.

Se videoer: http://robotnor.no/research/serpentine-robots-for-planetary-exploration-serpex/

På Bloomberg TV, London:

http://www.bloomberg.com/video/robot-snakes-on-a-plane-to-mars-it-could-happen-3ogHmKIpQ6u_j03e6LNOHQ.html

Smarte fly redder liv

$
0
0

Forskere ved NTNU jobber med å gjøre ubemannede fly enda bedre og så billige som mulig. Operasjoner og ekspedisjoner med skip, helikopter og spesialpersonell er ressurskrevende, koster mye og er ofte farlige. Ubemannede fly gjør jobben og er billige.

Penguin B

  • Lengde 2,27 m
  • Vingespenn 3,3 m
  • Nettovekt 10 kg
  • Maksimum last 11,5 kg, herunder 7,5 l drivstoff
  • Bensinmotor 2,5 kh med elektronisk bensininnsprøytning
  • 80 W strømgenerator og batteri
  • Varmeelementer for å unngå ising
  • Flylengde 20 timer
  • Marsjfart snaue 80 km/t
  • Maksimum fart snaue 130 km/t
  • Take-off med katapult, bil-topp eller på rullebane
Et ubemannet fly, «Unmanned Aerial Vehicle» (UAV), er intelligent og navigerer og flyr selv. Flyet har en eller flere operatører på bakken, eller på skipet som følger med. I militæret kalles UAV for drone.

Spesielle sikkerhetstiltak

Forskerne testet et ubemannet fly av typen Penguin B på Ørlandet. Flyet flyr over lang distanse – såkalt BLOS, «beyond line of sight» – og går flere titalls kilometer utover sjøen.

– Vi tester ny antenne og kommunikasjonsteknologi for overføring av videobilder med høy datarate over lang avstand. Dette gjør vi i samarbeid med Trondheimsfirmaet Radionor Communications. Videre samler vi forskere fra NTNU inn egne data, og vi har forskningsprosjekter knyttet til havbruksnæringen som også er aktuelt å samle inn data til.

Tor Arne Johansen.

Tor Arne Johansen.

Det sier professor Tor Arne Johansen ved Institutt for kybernetikk og AMOS, Senter for autonome marine operasjoner og systemer, der han leder to forskningsprosjekter: Ubemannede farkoster og grønnere drift av skip og offshore.

– Vi iverksetter spesielle sikkerhetstiltak når vi tester et ubemannet fly. Flyvningen foregår også innenfor kontrollert luftrom. Det er for å sikre at flyene ikke kolliderer med annen flytrafikk og for at vi ikke skal miste kontroll over flyet hvis radiosambandet eller navigasjonsutstyret i flyet svikter, forklarer Johansen.

Unngår kollisjon med hvaler

Lorenzo Fusini prøver ut uttallige kombinasjoner av sensorer og algoritmer før flyet får lov å lette.

Lorenzo Fusini prøver ut utallige kombinasjoner av sensorer og algoritmer før flyet får lov å lette.

– Hvis maskiner kan innhente informasjon like bra som mennesker, kan alle bransjer bruke ubemannende fly, sier Lorenzo Fusini som er stipendiat ved Institutt for teknisk kybernetikk og AMOS. Fusini er fra Italia, har vært i Norge snart et år, og snakker allerede nesten flytende norsk.

Ordet kybernetikk kommer fra kybernetes (gr.) som betyr styrmann eller rormann, «den som styrer». Kybernetikere forsker på ubemannet, automatisk og intelligent styring av fly, kjøretøyer, roboter over og under vann, industrielle prosesser og styrbare systemer innenfor medisin som proteser.

– Ubemannede fly brukes i dag for å utforske vanskelige strøk i Arktis. Et ubemannet fly kan sjekke hvor mye is det er og hva slags type is der et skip planlegger å kjøre. Vi har også som mål at flyene skal brukes til miljøovervåking av dyr, natur og temperaturer, kartlegge katastrofer på havet og lete opp mennesker og materiell i redningsoperasjoner.

– Et ubemannet fly kan for eksempel overvåke hvaler i leia de svømmer for å se hvordan hvalene beveger seg. Informasjonen sendes til skip slik at de kan styre utenom leia og unngå farlige kollisjoner med hvalene, forklarer Fusini.

Kamera, sensorer og GPS styrer flyet

AMOS

  • Senter for fremragende forskning (SFF), NTNU 2013-2022.
  • Forsker på:
  • Intelligente og ubemannede fly, kjøretøyer og undervannsrobotikk.
  • Energisystemer for grønnere skip og konstruksjoner offshore, intelligent offshore akvakultur og konsekvenser av ulykker på skip og konstruksjoner offshore.
  • Antennesystemer for marin overvåking og datainnsamling.
  • Budsjett: 600 millioner kroner 2013–2022
Et ubemannet fly navigerer selv uten noen form for fjernstyring. Flyet bestemmer egen posisjon, kurs og tilbakelagt distanse – det vil si hvor flyet er og hvordan flyet beveger seg.

Kamera, sensorer og GPS utgjør flyets navigasjonssystem. Lorenzo Fusini må prøve ut mange kombinasjoner av sensorer for å finne hvilken kombinasjon av sensorer som er optimal for flyets navigasjon.

Vanskelig vær, tekniske komplikasjoner og andre ting kan oppstå når flyet er på vingene. Fusini må derfor også bygge inn mange mulige situasjoner i algoritmene for flyets program. Algoritmene håndterer flyets kamera og sensorer, og bestemmer at når kamera og sensorer ser det og det, skal det og det skje med flyet.

Kart og terreng skal stemme

Carl Erik Stephansen fra Maritime Robotics taxer Penguin B-flyet. Foto: Tor Arne Johansen

Carl Erik Stephansen fra Maritime Robotics taxer Penguin B-flyet. Foto: Tor Arne Johansen

Kameraet kan filme 360° og gir informasjon om avstander, høyde og hastighet. Kameraet leter fortløpende etter gjenkjennbare objekter på bakken eller havet og bruker informasjonen til å justere kursen hvis flyet er ute av sin opprinnelige kurs. Objekter kan bety alt fra by, bygninger, fjell, knauser, trær, skip og endatil bølgetopper.

Før avgang har flyet dessuten fått programmert inn kart over området det skal fly i, for eksempel kartet «rundt Trondheim». Flyet sammenligner kartet med bildene som kameraet tar, og justerer kursen om nødvendig.

Men kart bruker mye minne, og tunge beregninger og grafikk er komplisert og bruker mye energi. Dette er også ting Lorenzo Fusini må ta med i beregningen.

Operatøren på bakken følger med

Viktig for dagens forskning på ubemannede fly er å gjøre flyene så robuste som mulig. Det gjør flyene mindre sårbare for feil og reduserer behovet for at operatøren på bakken eller skipet må gripe inn i programmet når flyet er på vingene.

UAV-operatør Lars Semb følger flyet nøye og kan gjøre endringer i programmet som styrer flyet. Foto: Tor Arne Johansen

UAV-operatør Lars Semb følger flyet nøye og kan gjøre endringer i programmet som styrer flyet. Foto: Tor Arne Johansen

– Operatøren kan for eksempel se at objekter beveger seg sakte i kameraet. Det betyr at flyet går høyt. Beveger objektet seg fort i kameraet, går flyet lavt. Om nødvendig kan operatøren legge ny informasjon i flyets programvare. Da forstår flyet hvilken kurs det nå må gå, sier Lorenzo Fusini.– Selv om et ubemannet fly navigerer og styrer selv, er operatøren ansvarlig og skal også kunne overstyre automatikken i flyet og foreta nødprosedyrer hvis det oppstår feil i navigasjonssystemet og ellers. Det er viktig for sikkerheten. I Luftfartsverkets regelverk heter det derfor fjernstyrte fly («remotely piloted aircraft systems») og ikke ubemannede fly («unmanned aerial vehicles»), avslutter Tor Arne Johansen.

 

Plukker stolhjul kjapt som blåbær

$
0
0

Når de ulike delene av en kontorstol skal settes sammen, glir operasjonene smidig og automatisk ved produksjonsenheten SB Seating på Røros. Men når hjulene skal monteres, må menneskehender ta over. De fem hjulene som ligger hulter i bulter i en kasse, må plukkes opp og plasseres i ei renne før roboter tar over igjen og plasserer dem på stolføttene.

Nå mener forskere fra SINTEF at de har funnet løsningen som kan effektivisere produksjonen og redusere kostnadene.

FAKTA:

  • «Next generation robotics» er et KMB-prosjekt under Norges forskningsråds BIA-program, og ledes av SINTEF IKT.
  •  Prosjektet har åtte partnere: SINTEF, NTNU, Statoil, Hydro, Tronrud Engineering, Glen Dimplex Nordic, SbSeating og RobotNorge.
  • Neste generasjon robotteknologi skal bli til gjennom å videreutvikle kompetansen i norske forskningsmiljøer/ deltakende industri, utvikle ny robotteknologi og nye innovative robotløsninger.
  • Prosjektet går over fem år (2009–2014) med et budsjett på 36 mill. kroner. Det skal utdannes fire ph.d.-kandidater i prosjektet – knyttet opp mot NTNU (Institutt for teknisk kybernetikk og Institutt for produksjon og kvalitets teknikk). - See more at: http://gemini.no/2012/02/roboter-pa-skolebenken/

Roboter for å se og gripe

Vi befinner oss i et lyst og rommelig laboratorium i Trondheim.  Her har arbeidet  med å optimalisere produksjonslinja til industrien, pågått.

Forsker Sigurd Albrektsen har rigget seg til med pc’en rettet mot oppsettet av to robotarmer og en kasse med hjul. Han forteller at den ene roboten er utstyrt med gripeverktøy, mens den andre har 3D-syn (laser og avansert kamera) som gjenkjenner og finner posisjonen til ulike deler.

–Griperoboten kan plukke hjulene på fire ulike måter, forklarer han mens han trykker på startknappen. –Det er viktig siden de ligger i ulike posisjoner.

Siden SB Seating produserer en stol i løpet av 20 sekunder, må forskerne få roboten til å plukke et hjul hvert 4. sekund. Og i løpet av de neste sekundene hentes da også hjulene kjapt opp av kassen av griperoboten.

Langt i utviklingen

–”Bin-picking” har vært et problem i alle forskningsmiljø i mange år, kan prosjektleder Svein Peder Berge på SINTEF IKT opplyse. –Dagens plukke-roboter er flinke til å plukke deler som ligger i bestemte posisjoner, men ikke om de ligger usorterte i en eske. Nå forteller vi roboten hvilket hjul den skal plukke ved å bruke en tegning (CAD-modell). Vi lærer roboten å gjenkjenne hjulet og hvordan det ligger i esken så den kan gripe dette nøyaktig og greie å plukke uansett hvordan hjuldelene ligger i esken.

Se roboten i arbeid:

http://www.youtube.com/watch?v=D3c9ANLpdUc

 

Løsning med videre perspektiv

Stein Are Kvikne på SB Seating, sier at plukking av hjul er valgt som et aktuelt case fordi bedriften nå bruker en robotmontasjecelle som monterer hjul inn i fotkryss.
–I dag må hjulene magasineres opp manuelt av en operatør. Det er en jobb som ikke er spesielt utfordrende for et menneske og heller ikke optimal ut fra et HMS perspektiv.  Om vi velger å automatisere akkurat denne operasjonen, vil det i all hovedsak være motivert ut fra slike hensyn, sier Kvikne. -Produktivitetsgevinsten får vi igjen i form av bedre arbeidsmiljø og bedre utnyttelse av operatørens kjernekompetanse.

Men Kvikne understreker at roboten fra SINTEF viser løsninger som har interesse langt ut over plukking av stolhjul:
– De demonstrerer en generisk teknikk hvor man kan håndtere mange ulike komponenter i samme løsning. Kombinasjonen av 3D-vision, en fleksibel robot/griper og en 3D- CAD modell av komponenten, gjør at vi kan plukke komponenten direkte ut fra transportemballasje uten annen håndtering. Vi ser at vi nå er veldig nær en løsning som det er aktuelt å investere i for oss, både fra et teknologisk og økonomisk perspektiv, sier han.

 

 


Seien best som robotfisk

$
0
0

Av Arne Asphjell

– Torsken er sta og lunefull, laksen er dum. Seien derimot, er den ideelle fisk for vårt formål, sier professor Jens G. Balchen ved Institutt for teknisk kybernetikk, NTNU. I mer enn tretti år har han vært opptatt av styring av fisk, og konklusjonen er at seien er den som lettest tar dressur.

– Seien liker vi godt, det er en klok fisk, sier Balchen. Nå har han en “gjøsei” gående i Atlanterhavsparken i Ålesund. Den er tykk som en gris, ifølge Balchen og veier godt over ti kilo. Med så mye opplagsnæring kan den gå et helt år uten fôr.

Balchen har flere ideer for hva en slik cyberfisk kan brukes til, for eksempel kan den utstyrt med kamera overvåke rørledninger på havbunnen. En annen mulighet er å bruke robotfisken som “gjeterfisk” for fiskestimer som skal fanges. Balchen sier han gjerne hører fra forskning og næringsliv som kan ha interessante anvendelser for en styrbar fisk.

Gjøseien skal testes

En klok fisk som kan klare seg et år uten å fylle drivstoff, er nettopp det Balchen trenger når han skal ha en robotfisk han kan styre. Den feite seien i Ålesund skal opp til viktige prøver i slutten av oktober. Da blir den utstyrt med utspekulert elektronikk, og professor Balchen skal se om seien adlyder hans elektroniske ordrer om hvor den skal svømme. Flere metoder er prøvd i løpet av de årene disse forsøkene har pågått, blant annet har Balchen og hans folk forsøkt å utstyre fisken med tømmer for styring som en hest. Det virket ikke så bra. Men nå har forskningsteamet fått fisken til å bevege seg til babord eller styrbord på kommando.

– Fisken liker ikke å bli tatt på, og vi utnytter dette for å styre den, forklarer Balchen. Det er spesielt gjellelokket som er følsomt for berøring. Ved hjelp av ultralyd aktiviseres små motoriserte klaffer på hver side av fisken, slik at den kan påvirkes til å bevege seg til høyre og venstre.

Lurer fisken

Å få fisken til å bevege seg opp og ned har vært vanskeligere. Metoden er under patentering, og Balchen vil ikke røpe for mye. Men han avslører at han kan lure fisken til å tro at den står på en annen dybde enn den faktisk gjør, og dermed kan man få den til å gå mot dypet eller opp mot overflaten. Noen vil nok ha betenkeligheter med å utstyre en fisk med høyteknologisk utstyr og styre den til å utføre bestemte oppgaver.

– Vi holder oss innenfor de etiske regler, sier Balchen, som mener at det han holder på med umulig kan være verre enn hundedressur eller hestetemming.

 

Synsbedrag til å ta og føle på

$
0
0

Av Elin Fugelsnes, NTNU

Den pennelignende tingen vi holder i handa, virrer først i løse lufta. Så støter spissen plutselig på noe hardt – en virtuell robotlegg. Vi fører pennen videre oppover og kjenner alle robotens konturer, fra fot til hode. I virkeligheten tegner vi fortsatt i løse lufta.

Den avanserte pennen er festet til en datamaskin som sender ut bildet av roboten. Skjermen på maskinen bikker svakt nedover slik at bildet reflekteres i en spesiell gjennomsiktig speilskjerm.

Utregninger har gjort det mulig å finne ut hvor vi kommer til å se refleksjonen av roboten gjennom 3D-brillene, og så programmere pennen til å gjøre motstand når den treffer punkter på den virtuelle roboten.

Fantomfølelse

Studenter fra videregående skoler i Trondheim var invitert til Supercomputing Day i forbindelse med Forskningsdagene. De stod i kø for å få prøve maskinen, som kalles Phantom.

Maskinen hos Institutt for datateknikk og informasjonsvitenskap (IDI) er én av de avanserte anskaffelsene i laboratoriene for virtuell virkelighet på Norges teknisk-naturvitenskapelige universitet (NTNU).

Studentene har allerede latt seg imponere av den virtuelle RAVE-laben (Reconfigurable Advanced Virtual Environment) på Institutt for petroleumsteknologi og anvendt geofysikk. Her var studentene omgitt av virtuelle effekter. I det ene øyeblikket hang en hjerne foran øynene deres, i det neste var de langt under jorda og lette etter olje.

Men mens du i RAVE-en strekker handa ut i intet når du prøver å ta på noe, kan du faktisk føle objektene med Phantom.

Virtuell presentasjon

Anne Øverkil har aldri vært inne i en virtuell virkelighet før.>- Jeg har aldri prøvd 3D før, så det var litt ekkelt. Samtidig var det veldig interessant å se alt det som faktisk er mulig, sier Anne Øverkil. Hun går siste året ved Ole Vig videregående skole, og har valgt IT som fordypning. Hun har ikke bestemt seg for hva hun vil studere senere, men utelukker ikke at hun kommer tilbake til den virtuelle virkeligheten. - Jeg har ikke peila meg inn på noe fagområde ennå - jeg kommer til å velge det som er interessant. Men det var kjekt å komme hit på presentasjon, det blir noe annet enn bare å lese om det, sier tredjeklassingen. Sveve over Svalbard NTNU begynte satsingen på virtuell virkelighet-teknologi for litt over to år siden. Kommende arkitekter, medisinere, geologer og produktdesignere er blant dem som bruker de virtuelle hjelpemidlene i undervisningen.

Anne Øverkil har aldri vært inne i en virtuell virkelighet før.>- Jeg har aldri prøvd 3D før, så det var litt ekkelt. Samtidig var det veldig interessant å se alt det som faktisk er mulig, sier Anne Øverkil.
Hun går siste året ved Ole Vig videregående skole, og har valgt IT som fordypning. Hun har ikke bestemt seg for hva hun vil studere senere, men utelukker ikke at hun kommer tilbake til den virtuelle virkeligheten.
- Jeg har ikke peila meg inn på noe fagområde ennå – jeg kommer til å velge det som er interessant. Men det var kjekt å komme hit på presentasjon, det blir noe annet enn bare å lese om det, sier tredjeklassingen.
Sveve over Svalbard
NTNU begynte satsingen på virtuell virkelighet-teknologi for litt over to år siden. Kommende arkitekter, medisinere, geologer og produktdesignere er blant dem som bruker de virtuelle hjelpemidlene i undervisningen.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

For å skape en tredimensjonal virkelighet må to prosjektører sende ut bilder samtidig. I naborommet ble studentene tatt med på en geologisk reise på Svalbard. To prosjektører sender ett bilde for høyre øye og ett bilde for venstre øye på et lerret, og med enkle 3D-briller svever vi med ett over Svalbards fjelltopper. I løpet av sommeren har fem slike installasjoner funnet veien til NTNU. Nå er en virtuell hanske og hjelm neste punkt på innkjøpslista til amanuensis Torbjørn Hallgren. En hanske vil gjøre det mulig for oss å kjenne på alle slags virtuelle bilder. Hallgren ser mange muligheter for bruk av Phantom-maskina. Hittil brukes bare demonstrasjonsprogrammer fra produsenten, men flere NTNU-studenter jobber med å utvikle egne programmer og modeller som kan legges inn. Både se og røre

For å skape en tredimensjonal virkelighet må to prosjektører sende ut bilder samtidig.
I naborommet ble studentene tatt med på en geologisk reise på Svalbard. To prosjektører sender ett bilde for høyre øye og ett bilde for venstre øye på et lerret, og med enkle 3D-briller svever vi med ett over Svalbards fjelltopper.
I løpet av sommeren har fem slike installasjoner funnet veien til NTNU. Nå er en virtuell hanske og hjelm neste punkt på innkjøpslista til amanuensis Torbjørn Hallgren. En hanske vil gjøre det mulig for oss å kjenne på alle slags virtuelle bilder.
Hallgren ser mange muligheter for bruk av Phantom-maskina. Hittil brukes bare demonstrasjonsprogrammer fra produsenten, men flere NTNU-studenter jobber med å utvikle egne programmer og modeller som kan legges inn.
Både se og røre

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

RAVE-laben er som en hule hvor man blir omsluttet av en kunstig virkelighet. - Oljegeologi er særlig aktuelt. Etter hvert håper vi å kunne benytte de samme modellene som brukes i RAVE-laben, slik at vi både kan se dem og ta på dem, sier amanuensen. NTNUs virtuelle verden gir også nye muligheter i den virkelige verden. Akkurat nå diskuteres det med Norsk Hydro om muligheter for å bruke Phantom til å tolke bilder av havbunnen. - 3D-teknikken blir brukt til å vurdere de ulike flatene som oljen ligger mellom. Det å kunne føle på flakene vil bringe inn et nytt element. Det samme gjelder for prøvestrengene man tar opp i forbindelse med prøveboring, påpeker Hallgren. Attraktive arbeidssøkere IDI har en stor søkermasse til datagrafikk. Hallgren tror VR-satsingen kan ta en del av æren for det. - Dette har appell til studentene. Samtidig tror jeg vår satsing innen virtuell virkelighet er med på å gjøre studentene mer attraktive på arbeidsmarkedet, sier Hallgren.

RAVE-laben er som en hule hvor man blir omsluttet av en kunstig virkelighet.
- Oljegeologi er særlig aktuelt. Etter hvert håper vi å kunne benytte de samme modellene som brukes i RAVE-laben, slik at vi både kan se dem og ta på dem, sier amanuensen.
NTNUs virtuelle verden gir også nye muligheter i den virkelige verden. Akkurat nå diskuteres det med Norsk Hydro om muligheter for å bruke Phantom til å tolke bilder av havbunnen.
- 3D-teknikken blir brukt til å vurdere de ulike flatene som oljen ligger mellom. Det å kunne føle på flakene vil bringe inn et nytt element. Det samme gjelder for prøvestrengene man tar opp i forbindelse med prøveboring, påpeker Hallgren.
Attraktive arbeidssøkere
IDI har en stor søkermasse til datagrafikk. Hallgren tror VR-satsingen kan ta en del av æren for det.
- Dette har appell til studentene. Samtidig tror jeg vår satsing innen virtuell virkelighet er med på å gjøre studentene mer attraktive på arbeidsmarkedet, sier Hallgren.

 

 

 

 

 

 

 

 

Fileteringsrobot kan redde norsk fiskeindustri

$
0
0

I motsetning til oppdrettslaks, varierer hvit fisk mye i størrelse og vekt. Det gjør at man fram til nå ikke har lyktes med å lage maskiner som kan filetere fisken.

FAKTA:

  • Prosjektet bak fileteringsmaskinen kalles APRICOT (automatic pinbone removal in cod and whitefish).
  • APRICOT er ett av 15 prosjekter i et nordisk marint innovasjonsprogram som ble opprettet under Nordisk Innovation for å utvikle nye produkter og løsninger for sjømatbransjen.
  • De involverte i prosjektet er Sintef, Norway Seafoods, det islandske selskapet Marel og Faroe Origin fra Færøyene.
  • Norge er verdens nest største eksportør av fisk, og på verdensbasis spises rundt 32 millioner måltider av norsk sjømat daglig, ifølge Sintef.

Men nå er fileteringsmaskinen klar som kan bety et positivt oppsving for norsk fiskeindustri.
Maskinen er et resultat av et prosjekt i regi av Nordisk Innovation der Sintef, Marel, Faroe Origin og Norway Seafoods har samarbeidet om utviklingen.


Ut med beina

Hvit fisk er komplisert og tidkrevende å filetere fordi beina er vanskelige å finne og fjerne. Tre til syv prosent av den mest verdifulle delen av fisken skjæres derfor unødvendig bort i dag.

Forskere ved SINTEF IKT har sammen med Marel utviklet røntgenløsningen benyttet i fileteringsmaskinen.  De har bruk CT-skanneren på Rikshospitalet for å lære mer om hvor beina i fisken sitter.

Den nye maskinen lokaliserer fiskebeina med røntgenteknologi, og fileterer fisken raskt og presist med en kraftig vannstråle. Det betyr at fisken er garantert beinfri og har betydelig mindre svinn enn ved manuell filetering. Se video av fileteringsmaskinen: http://youtu.be/BgPSmJ0n1Nc

Å filetere hvit fisk har vært et problem til nå siden fisken varierer så mye i størrelse og form.

Å filetere hvit fisk har vært et problem til nå siden fisken varierer så mye i størrelse og form.

 

Foredling i Norge

–Norge eksporterer bare 10-25 prosent bearbeidede produkter – avhengig av om det er hvitfisk eller oppdrettsfisk, sier Marit Aursand, forskningssjef ved SINTEF Fiskeri og havbruk.
–Flere av de viktigste sjømatproduktene våre – som laks, torsk og sild, blir minimalt behandlet eller foredlet før de sendes ut av landet. Mulighetene for å foredle mer i Norge er med andre ord stort, og roboten kan bety et gjennombrudd ved at vi får et sårt trengt konkurransefortrinn overfor lavkostnadsland  i Asia, Øst-Europa og Russland, sier Aursand.

I dag kan fisk fanget i Lofoten vandre gjennom to andre land for filetering og pakking før den igjen returnerer til Norge. Den nye oppfinnelsen vil derimot gjøre det mulig å sende fersk fisk direkte fra norske anlegg til butikkene.

– Fiskeforedling i Norge vil snart være en saga blott hvis ikke fileteringsprosessen automatiseres og blir effektiv og lønnsom. Derfor er den nye oppfinnelsen så viktig. Vi kan få høyere kvalitet og større utvalg av ferske fiskeprodukter, samtidig som industrien beholdes på norsk jord, sier Aursand.

Roboter på skolebenken

$
0
0

Denne artikkelen ble opprinnelig publisert i februar 2012.

Før konkurrerte vi mot europeiske aktører. Nå er det kineserne som puster oss i nakken, sier Tore Fløan.

Han er teknisk sjef hos Glen Dimplex Nordic i Stjørdal utenfor Trondheim. Her, i den 16 500 m2 store fabrikken, produseres moderne panelovner til et internasjonalt marked, med Russland som største kunde. Ifølge Fløan er det roboter som holder lavkost-kineserne på betryggende konkurranseavstand og sikrer videre drift, til tross for finanskrisa.

"

I fabrikken arbeider cirka 120 medarbeidere på to skift, assistert av 15 produksjonsroboter – som jobber hele døgnet året rundt.

Bedriften, som en gang var norskeid og het Nobø Fabrikker, ble senere sammenslått med Siemens Electrical Heating, og er i dag en del av et internasjonalt, irsk industrikonsern med svært moderne produksjonslinjer.

– Jeg er overbevist om at det du ser her – det klarer ikke kineserne å gjøre verken billigere eller bedre, sier Fløan og smiler.

Han viser oss to gigantiske roboter som utfører en dans så elegant og synkront at den hadde vært en argentinsk tango verdig. Fra de innprogrammerte dansetrinnene fødes en ferdig montert komponent hvert fjortende sekund. Helt uten menneskelig inngripen.

Men effektive og ubemannede roboter har ikke fått de ansatte til å protestere. Her hos Glen Dimplex Nordic er de omfavnet av både klubb, ledelse, styre og eiere. De første produksjonsrobotene ble montert alt i 1998. Litt etter litt har det blitt flere. Og enda flere skal de bli.

– Vi har lenge hatt tradisjon for å jobbe sammen med NTNU og SINTEF. Flere av produksjonslinjene våre er resultater av dette samarbeidet. Nå deltar vi i forskningsprosjektet Next Generation Robotics for Norwegian Industry sammen med fem andre norske bedrifter. Målet er å utvikle roboter som har menneskelige evner og kan gjøre mer enn bare enkle, repetitive oppgaver. Dette kan blir nyttig for å opprettholde konkurransekraften, sier Fløan.

Den globale lavkostkarusellen

I fjerde etasje i det som på folkemunne kalles Electric Garden, på Gløshaugen i Trondheim, sitter forskningsleder Ingrid Schjølberg i SINTEF og skuer ut over historiske Trondheim. Men det er framtida som opptar henne. Som prosjektleder for satsinga «Next Generation Robotics» har hun så stor tro på roboter at hun spår de vil bli en del av hverdagen til deg og meg om ikke lenge. Men det som virkelig driver utviklingen innenfor fagfeltet, er bedrifter som nettopp Glen Dimplex Nordic.

– Skal norske vareproduserende bedrifter klare å hevde seg i en global og konkurranseutsatt verden, gjelder det å tenke smart. Derfor arbeider SINTEF og NTNU tett med industrien for å utvikle neste generasjon roboter: maskiner som kan se, gjøre egne vurderinger – og lære av dem, og sist, men ikke minst, utføre de oppgavene som du og jeg helst vil slippe, sier Schjølberg.

På deltakerlista i prosjektet står også Statoil, Hydro, Tronrud Engineering, SbSeating (HÅG) og RobotNorge. Tronrud Engineering har rollen som sluttleverandør: den som sørger for kommersialisering og robuste sluttprodukter.

Roboter i tungindustrien

Metallindustrien er en viktig underleverandør til annen norsk industri, og det er behov for å øke graden av automatisering i flere ledd av produksjonen for å stå bedre rustet i det internasjonale markedet. Robotisering er likevel lite utnyttet, forteller sjefingeniør Odd-Arne Lorentsen.

På aluminiumsverket på Sunndalsøra benyttes det karbon-anoder, som veier flere tonn, i elektrolyseprosessen. Anodene inngår som en del av prosessen, og forbrennes mens aluminium blir produsert. Etter 3–4 ukers drift blir anoderestene tatt ut fra elektrolysecella og erstattet med nye.

Et lag med knust elektrolytt blandet med alumina plasseres på toppen av de nye anodene for å redusere varmetapet og unngå at anodene brenner under drift. Og siden karbonet er verdifullt, må dette elektrolyttlaget fjernes når karbonrestene skal resirkuleres og gå inn i ny produksjon.

– Vi bruker en mer eller mindre helautomatisk anoderensestasjon i dag, men har slitt med at dette systemet ikke fjerner alle restene godt nok. De kan dermed ende opp i de nye anodene og forringe anodekvaliteten, sier Lorentsen.

Gjennom å bruke et robotsystem i kombinasjon med visuell deteksjon som kan se forskjell på anodemateriale og gjenvinningsrestene, håper Hydro Aluminium å få dette til automatisk.

I tillegg er det flere andre arbeidsposisjoner i dag, som bedriften vurder å automatisere.

– Greier vi å bruke roboter til flere av operasjonene, vil vi kunne forbedre nøyaktigheten og skjerme arbeiderne fra områder med støy og høy temperatur. Samarbeidet med NTNU/SINTEF har nå pågått i en treårsperiode, og jeg er overbevist om at dette prosjektet vil gi oss en plattform å bygge videre på, sier Lorentsen.

Et ROV-dyr

Enorme avstander. Isende kulde. Store havdyp, brutale bølger og giftige gasser. Det er kanskje ikke rart at Statoil med sine utfordringer også setter sin lit til roboter i framtida. Selskapet har i en årrekke vært brukere av såkalte ROV-er: små, fjernstyrte ubåter som er utstyrt med både kamera, verktøykasse og sist, men ikke minst, en hjerne konstruert for å utføre teknisk vedlikehold på de mest ugjestmilde områdene vi har – havbunnen. Nå retter de blikket over havoverflata. Målet er å ha operative og funksjonelle roboter på plattformdekket.

– Vi har de fire D-ene: Distent, Dull, Difficult og Dangerous, sier Anders Røyrøy. Han er prosjektleder for Statoils robotforskning og har store planer for de tenkende robotene. Men det er ikke av økonomiske årsaker:

rep_rob_ill_stor_skolebenk

Slik lærer roboten å gripe nøyaktig: Den ene roboten er utstyrt med gripeverktøy. Den andre har 3D-syn (laser og avansert kamera) som gjenkjenner/finner posisjonen til ulike deler i en produksjonslinje. Når en gjenstand skannes, identifiserer et spesial-designet dataprogram delen, og finner ut hvor og hvordan delen ligger. Posisjonen sendes til robot nr. 2, som omsetter informasjonen til en bevegelse og griper den aktuelle delen.
Illustrasjon: Knut Gangåsæter

– Vi gjør ikke dette for å spare penger, men for å redusere risiko for tap av liv og helse. Robotene våre skal gjøre de farlige jobbene i områder som ikke egner seg for mennesker. Det vi driver med, er jo ikke akkurat serieproduksjon, sier han.

På en plattform kan ting gå galt, og i dag er mye automatisert: På boredekket brukes det for eksempel manipulatorer for å håndtere tunge borerør, slik at disse ikke skal falle ned på folk under brønnboring.

Statoil ser for seg at de nye robotene kan brukes til mer avanserte funksjoner, som å overvåke avanserte operasjoner langt til havs, detektere avvik, og kvalitetssikre arbeidet som utføres av andre.

– Vi vet at vi har lyktes på havbunnen. Nå skal vi få til automatiserte prosesser på plattformdekket. Det er vanskeligere, sier Røyrøy. – Under havoverflaten er det selvsagt at vi skal bruke fjernstyrte roboter, mens det på en plattform er lett å tenke at vi kan løse oppgavene med mennesker.

– Oljen som finnes i dag, er ofte i områder som ligger langt vekk, og i tillegg byr på farlige omgivelser. Det kan være store mengder svovel i lufta, og i Det kaspiske hav finnes blant annet hydrogensulfid som er en lammende gass. I tillegg kan temperaturene variere mellom minus 40 til pluss 40 grader. Roboter blir den eneste mulighet for å lykkes i disse områdene, sier han.

Statoil ser også for seg å bruke noe av teknologien fra robotforskningen inn mot framtidig vedlikehold og modifikasjoner av vindturbiner, hvor tilgjengeligheten er begrenset, og reisetiden ut til installasjonene blir lang.

Det krever at robotene må ha både syn, hukommelse og være operatørens forlengede arm ut i prosessen. I tillegg trengs et godt verktøy for navigasjon og posisjonering. Og det er nettopp et slikt system SINTEF nå jobber med å gi de kloke tøffingene.

Kunstig og kognitiv

De to gigantiske robotene på Glen Dimplex Nordic i Stjørdal utfører sammen en elegant og synkron dans slik at en ferdig komponent er klar hvert 14. sekund.Foto: Gry Karin Stimo

De to gigantiske robotene på Glen Dimplex Nordic i Stjørdal utfører sammen en elegant og synkron dans slik at en ferdig komponent er klar hvert 14. sekund.
Foto: Gry Karin Stimo

Schjølberg forklarer: – Det finnes mange måter å lære en maskin å huske. Felles for alle roboter er at «hjernen» deres består av en digital tabell som roboten søker gjennom til den finner det riktige svar-alternativet.

– Logisk nok. Men hvordan lager dere selve tabellen?

– En av metodene er såkalt «offline learning». Den består i å styre roboten manuelt gjennom de operasjonene vi ønsker den skal gjøre. Og så gir vi den belønning når bevegelsene blir riktige. De «riktige» dataene legges så inn i tabellen.

– Hvordan belønnes en maskin?

– For roboten må naturligvis godbiten bestå av noe den forstår, og det er tall. Derfor kan vi for eksempel gi den pluss- eller minuspoeng etter hvordan den løser oppgavene. På denne måten mater vi den med kunstige erfaringer, og slik blir roboten i stand til å foreta vurderinger selv.

Etterhvert som den jobber, vil roboten faktisk lære av egne erfaringer, akkurat som oss. Utfordringen er å lage søk som er gode og raske nok til at dette poengsystemet fungerer i praksis.

Tradisjonsrik og innovativ

Disse karbon-anodene er det Hydro vil at robot-er skal rense. De forbrennes som en del av prosessen og pådrar seg da et hvitt elektrolyttlag som må hakkes løs før anodene resirkuleres og går inn i ny produksjon.Foto: Thor Nielsen

Disse karbon-anodene er det Hydro vil at robot-er skal rense. De forbrennes som en del av prosessen og pådrar seg da et hvitt elektrolyttlag som må hakkes løs før anodene resirkuleres og går inn i ny produksjon.
Foto: Thor Nielsen

På tradisjonsrike Røros ligger stolprodusenten SbSeating (HÅG) som har lang tradisjon i å samarbeide med SINTEF og NTNU. Her passerer 265 000 stoler samlebåndet i løpet av et år, i mer enn ti tusen varianter. Alt produseres etter ordre og sendes samme dag som det lages.

– Vi har jobbet tett med forskerne med å utvikle produksjonsapparatet vårt, og det var beregninger derfra som overbeviste oss om at vi hadde mye å hente på intern logistikk og av å benytte roboter, sier Stein Are Kvikne.

Nå er den gode flyten og logistikken på plass. Utfordringa er å minimere de tunge, manuelle og teknisk krevende arbeidsoppgavene.

– Mange av delene våre kommer i bulk. Å gi robotene syn, slik at de kan plukke deler som ligger vilkårlig i en kasse, vil ha stor betydning for effektiviteten i fabrikken vår. Det samme gjelder automatisering av pakking som i dag er både fysisk krevende og ensformig.

En nøyaktig hånd

Mass Customization er det som gjelder nå, sier Pål Ystgaard. – Stadig flere produkter individualiseres, og trenden gjør at de store fabrikkene må produsere varer på løpende bånd etter hvilke design kundene bestiller.

Denne dagen står forskerne Øystein Skotheim og Pål Ystgaard og finjusterer på en produksjonsrobot i laboratoriet. Den nesten to meter høye roboten ser ut som ser ut som en krysning av et sjiraffhode og en gigantisk, oransje drill. Dette er en «smartbot» som kan gripe ulike deler etter hva den måtte trenge for å utføre oppgaven sin. Roboten jobber i tospann – for ved siden av står en sølvfarget makker. Den er utstyrt med 3D-syn ved hjelp av en laser og et avansert kamera, og er i stand til å gjenkjenne og finne posisjonen til ulike deler i en produksjonslinje.

Skotheim har spesialisert seg på maskinsyn ved hjelp av ulike teknikker, og jobbet med alt fra digital dokumentasjon av helleristninger til kvalitetskontroll av bildeler.

«Next generation robotics»

Dette er et KMB-prosjekt under Norges forskningsråds BIA-program, og ledes av SINTEF IKT. Prosjektet har åtte partnere: SINTEF, NTNU, Statoil, Hydro, Tronrud Engineering, Glen Dimplex Nordic, SbSeating (HÅG) og RobotNorge.

Neste generasjon robotteknologi skal bli til gjennom å videreutvikle kompetansen i norske forskningsmiljøer/ deltakende
industri, utvikle ny robotteknologi og nye innovative robotløsninger.

Prosjektet går over fem år (2009–2014) med et budsjett på 36 mill. kroner. Det skal utdannes fire ph.d.-kandidater i prosjektet – knyttet opp mot NTNU (Institutt for teknisk kybernetikk og Institutt for produksjon og kvalitets teknikk).

– Sensoren som fungerer som robotens øyne benytter en laser til å lage en lysstripe som hele tiden observeres med et kamera, sier han. – Når det kommer gjenstander inn i synsfeltet til roboten, vil laserstripen endre form. Dette gjør oss i stand til å konstruere et 3D-bilde av gjenstandene som roboten ser.

Etter at en gjenstand har blitt skannet, kjøres det et spesialdesignet dataprogram for å identifisere delen, samt finne ut hvor og hvordan delen ligger. Posisjonen sendes så til robot nummer to, som omsetter informasjonen til en spesifikk bevegelse. Dermed kan roboten gripe den aktuelle delen i produksjonslinja, uansett hvordan den ligger – og hva den måtte være.

– I dag finnes det ikke løsninger som gjør at roboter på en fleksibel måte kan gjenkjenne og gripe mange ulike deler, fordi robotene bare er utstyrt med todimensjonalt syn og bare kan utføre svært standardiserte bevegelser, forteller Skotheim.

Den lille roboten Rulle kan hjelpe Ingrid Schjølberg med å bære ting, for han følger trofast etter dit hun går, og stopper på kommando. – Teknologien er lett å overføre til andre om-råder, sier Schjølberg.Foto: Thor Nielsen

Den lille roboten Rulle kan hjelpe Ingrid Schjølberg med å bære ting, for han følger trofast etter dit hun går, og stopper på kommando. – Teknologien er lett å overføre til andre områder, sier Schjølberg.
Foto: Thor Nielsen

Det betyr at om det skjer en liten endring i produksjonsrekka, må hele roboten reprogrammeres. Noe som er både kostbart og krevende.

Skotheim og Ystgaard har nå lyktes med å gi de avanserte maskinene evnen til å se i tre dimensjoner, sånn at de blir i stand til å løse mer komplekse oppgaver i produksjonslinjene.

– Teknologi som gjør det mulig å kombinere skreddersøm med masseproduksjon, er det som skal gjøre norsk vareproduserende industri konkurransedyktig i en verden hvor vi konkurrerer med land som har langt lavere produksjonskostnader, sier Ystgaard.

Nå blir oppgaven å finne ut hvordan dette kan gjøres på smartest mulig måte, sånn at vi kan få maskiner til å utføre arbeidsoppgaver vi mennesker helst vil slippe – og samtidig lære av de feilene de gjør, sånn at de blir enda mer effektive.

Fra dekk til stue

– Han kommer når du vinker, og så kan han hjelpe til med å bære ting for deg, for han følger trofast etter dit du går, og stopper på kommando. Vi kaller den Rulle, sier Ingrid Schjølberg.

– Jeg synes ikke han er så kjekk, akkurat, så vi har planer om å forbedre designet, sier hun og drar hånda over det praktiske, men ikke spesielt vakre «transportbrettet» som er en del av roboten. Brettet hever og senker seg automatisk etter brukerens behov, og den lille tassen kunne sikkert jobbet som ryddehjelp i en restaurant, kantine eller på en institusjon.

– Robotteknologien vi nå utvikler er såkalt «generisk teknologi»; det betyr at den er lett å overføre til andre områder. Velferdsteknologi for eldre er noe som er i vinden, og vi ser at Rulle for eksempel kunne ha hjulpet eldre mennesker med enkle oppgaver som å frakte skittentøy eller dagligvarer på hjemmebane, sier Schjølberg.

 

ROV-drift på havbunnen

$
0
0

Arkeologer er interessert i skipsvrak. Ingeniører er opptatt av offshore overvåking og kartlegging for å utnytte ressurser. Biologer vil avdekke habitater og omfang av planter og dyreliv Tilstanden for planter og dyreliv forteller om vannets helse. Derfor er kartlegging og analyse av marine arter også viktig i miljøperspektiv.

Til dette bruker forskerne intelligente undervannsroboter og et nytt hyperspektralt undervannskamera. Målet med stadig mer avansert teknologi og metoder, er at robotene selv skal forstå, planlegge og utføre avansert arbeid under de ekstreme forholdene på havbunnen.

Mauro Candeloro

Mauro Candeloro
Foto: Geir Johnsen

Verdens største laboratorium

– Those robots are fancy! utbryter Mauro Candeloro entusiastisk.

Candeloro forsker på undervannsroboter sammen med Fredrik Dukan. Robotene kalles ROV, «Remotely Operated Vehicle» (fjernstyrt fartøy).

– Interessen for havbunnen er stor, men leie av skip, personell og materiell for ekspedisjoner på havet er kostbart. Det er komplisert å undersøke spesielle og vanskelige miljøer på havbunnen, sier Candeloro.

 

Fredrik Dukan

Fredrik Dukan
Foto: Geir Johnsen

AUR-Lab er et senter for anvendt forskning innenfor undervannsrobotikk med verdens største laboratorium: Trondheimsfjorden. Marin utforskning, kartlegging og overvåking er det viktigste AUR-Lab bruker ROV til.

Candeloro er stipendiat ved Institutt for marin teknikk og AMOS, Senter for autonome marine systemer, NTNU. Fredrik Dukan er stipendiat ved Institutt for teknisk kybernetikk. Disse fagmiljøene jobber sammen med andre fagmiljøer ved AUR-Lab.

Dynamisk posisjonering

Daværende næringsminister Trond Giske og prorektor Kari Melby fulgte med på undervannssnorklippingen via skjerm i forskningsfartøyet Gunnerus.

Daværende næringsminister Trond Giske og prorektor Kari Melby fulgte med på undervannssnorklippingen via skjerm i forskningsfartøyet Gunnerus.
Åge Hojem/NTNU AUR-Lab

Siden forskerne ikke kan oppleve hvordan det er på havbunnen, trenger de en smart måte å kontrollere ROV på.

– Dynamisk posisjonering («Dynamic Positioning System», DP System) kontrollerer automatisk og nøyaktig posisjon og bevegelser hos ROV, selv under ukjente forhold og ved alle typer oppdrag. Systemet er utviklet av AUR-Lab, forteller Candeloro.

– DP System holder ROV i riktig posisjon og i en bestemt avstand til havbunnen. ROV bruker ikke anker, men er utstyrt med flere propeller som sørger for å holde fartøyet i stødig posisjon, forklarer han.

ROV må være nær bunnen for å kartlegge, men ikke for nær fordi forskerne vil ha kartlagt så mye som mulig på en gang. Er ROV for høyt over bunnen går det ut over lysforholdene. 2-3 meter over bunnen er passe.

Krefter i dypet

ROV beregner og kompenserer for strømmer i vannet, gravitasjon og oppdrift.

– Summen av gravitasjon som presser ROV ned og oppdriften som dytter ROV opp, blir en positiv kraft som dytter ROV opp. Vi sier at ROV har positiv oppdrift.

Operatøren på båten kan gripe inn og styre med joystick. Men operatøren følger mest med på operasjonspanelet som viser alle sensorene på ROV. Alt som skjer med ROV under oppdraget logges slik at forskerne kan analysere etterpå.

Les også Avslører mysterier i polarnatta

Presis manøvrering

På tokt med AUR-Lab i Trondheimsfjorden. Fra forskningsfartøyet Gunnerus settes undervannsroboten (ROV) Minerva ut og sendes ned til havbunnen.

På tokt med AUR-Lab i Trondheimsfjorden. Fra forskningsfartøyet Gunnerus settes undervannsroboten (ROV) Minerva ut og sendes ned til havbunnen.
Foto: Geir Johnsen/NTNU AUR-Lab

Oppdraget i dypet avhenger av at ROV holdes stødig og manøvreres så presist som mulig. Det er svært viktig at ROV går stabilt, og dette er det vanskeligste. Andre utfordringer er feiltoleranse og håndtering av feil, sikkerhet, hindringer i dypet og energi.

Propeller og sensorer gjør at ROV kan manøvreres forover-bakover, ned-opp, sidelengs, rotere, holdes i vater, holdes i posisjon, gi retning, dybde og fart, samt akselerere. Farten er normalt 0,3 m/s.

Programmet måler alt som skjer med ROV og i omgivelsene. Dermed kan propellbevegelser kalkuleres før de faktisk skjer og propellene styres slik at de kompenserer for endringer som inntreffer.

Hyperspektralt kamera

Kameraer brukes for å identifisere, kartlegge og overvåke habitater, koraller og svamper, mineraler samt inspisere rør og annet på havbunnen.

AUR-Lab og Ecotone, et spin-off selskap fra NTNU, samarbeider nå om å utvikle et nytt hyperspektralt undervannskamera. Teknikken er basert på optiske fingeravtrykk. Kameraet er følsomt for flere bølgelengder enn rød, grønn og blå (RGB).

– Databaser med optiske fingeravtrykk er svært nyttig. Det kan vi bruke for å gjenkjenne objekter vi er spesielt interessert i på havbunnen, sier Candeloro.

– Det hyperspektrale undervannskameraet har allerede kartlagt deler av Barentshavet med den nye teknikken. Kameraet er et stort skritt på veien videre for å forstå marin biologi og et effektivt verktøy for å inspisere undersjøiske rørledninger, utdyper han.

Grønn verden

Operatørene følger med på hva ROV gjør på havbunnen. De ser det samme som ROV ser med kameraene.

Operatørene følger med på hva ROV gjør på havbunnen. De ser det samme som ROV ser med kameraene.
Foto: Geir Johnsen/NTNU AUR-Lab

Et vanlig undervannskamera har sensorer som kun er følsomme for rødt, grønt og blått. Og under vann kan kameraet ta bilder av et begrenset område.

Vann absorberer lys, det vil si energi. Naturlig lys går ned til omtrent 20 meter, deretter blir det mørkere og mørkere. Dette avhenger noe av vannkvaliteten. ROV må uansett være nær bunnen for å ta bilder.

– Bilder som tas med vanlige undervannskameraer blir grønnlige. Det er fordi grønt reflekteres i vannet og slik blir fanget opp av kameraet. Vi kan til en viss grad rekonstruere fargene i bildene igjen, sier Candeloro.

Røde og blå bølgelengder blir for det meste absorbert av vannet.

Går frem og tilbake

På båten ser forskerne det ROV ser gjennom kameraene. ROV har flere kameraer og lyskastere.

– ROV går frem og tilbake på et definert område og tar bilder til området er ferdig fotografert. Området kan være et større areal eller et skipsvrak. Kameraet dekker en 4-5 meter «gate», forklarer Candeloro.

Hvert bilde som tas har nøyaktig posisjon. Mange av bildene vil overlappe hverandre delvis eller flyte over i hverandre.

3D-kart

ROV (Remotely Operated Vehicle)

  • Fjernstyrt undervannsrobot
  • Liten ROV: 144 x 82 x 81 cm og 485kg
  • 1000 m kabel mellom ROV og båten
  • Flere kameraer. Spesielle sensorer gjør noen av kameraene svært følsomme for lys
  • Flere lyskastere
  • Lyskastere og kameraer har 4-5 meter rekkevidde
  • Elektrisk motor
  • Fem propeller
  • Operatør kan gripe inn og fjernstyre med joystick fra operasjonspanel på båten
  • Sensor under båten har kontakt med ROV
  • ROV kan ha mange typer utstyr, det som passer for oppdraget blir brukt
Et program analyserer bildene og gjenkjenner objekter, for eksempel en sjøstjerne. Hvis sjøstjerna er på to bilder, vil programmet tilpasse og overlappe bildene for å gjengi motivet så godt som mulig. Til slutt setter kartprogrammer alle bildene sammen til flere typer 3D-kart.

– Bildene har noe ulik vinkel fordi ROV bikker litt på seg på havbunnen. Programmet kompenserer for dette og gjør kartet så bra som mulig. Men lite lys og den effekten sjøvann har på fargene er et problem, sier Candeloro.

Mange typer teknologi kan brukes for å avdekke havbunnen: flere former for avbildning, flere måter å måle akustikk på og fjernkontroll fra båten. Alt handler om smart styring og å integrere mye informasjon for å få kartlagt havbunnen.

Fremtidens marine leting

– I fremtidens marine leting vil funksjonene i ROV integreres og automatiseres enda mer. ROV vil også ta over mer av planlegging og beslutning selv, sier Candeloro.

Nøkkelordet er autonome operasjoner. Dataene skal analyseres i sanntid slik at roboten, ROV, forstår hva som er rundt den og hva som er best å gjøre for å utføre oppdraget.

– Vår ROV er et perfekt verktøy og laboratoriene perfekte forskningsmiljøer for å utvikle denne teknologien, avslutter Mauro Candeloro.

Hvor er jeg – og hvor skal jeg?

$
0
0
Vi mennesker har evne til å orientere oss i et rom eller et landskap. En robot har ingen anelse.

Klart for skarpsynte roboter

$
0
0
Framtidas roboter skal kunne tilpasse seg vekslende omgivelser. Noen av dem skal også omgås mennesker. Da må de i det minste kunne se skikkelig. Tredimensjonalt, slik som oss.

Robot inspiserer vannrørene

$
0
0
Mellom 30-40 prosent av drikkevannet i Europa går tapt gjennom rørlekkasjer. Norske forskere og en liten bedrift i Tromsø er med på å hindre at dette skjer.

Mer mat fra maten med roboter

$
0
0
Kan en industrirobot klare å fjerne brystfilet fra en kylling, og samtidig få mer ut av råstoffet? Det er et av spørsmålene forskerne i prosjektet CYCLE nå har svaret på.

Statsetater vil vurdere bruk av droner

$
0
0
Jernbaneverket, NVE og Statens Vegvesen vil sjekke hvordan bruk av droner kan kobles opp mot overvåking av flom, skred og infrastruktur.

Klem en robot med barnebarnets stemme

$
0
0
Synes du det er greit at roboter tar over deler av omsorgen for de eldre? I Japan er folk flest vennligere innstilt til det enn folk i Vesten er.

Roboter på skolebenken

$
0
0
Neste generasjon industriroboter er rett rundt hjørnet. De skal kunne se, huske og ta egne beslutninger.
Viewing all 161 articles
Browse latest View live