Door Perla Maiolino, Universiteit van Oxford
Robots zien de wereld nu met een gemak dat ooit alleen tot science fiction behoorde. Ze kunnen objecten herkennen, door rommelige ruimtes navigeren en duizenden pakjes per uur sorteren. Maar vraag een robot om iets zachtjes, veilig of betekenisvol aan te raken, en de grenzen verschijnen onmiddellijk.
Als onderzoeker op het gebied van zachte robotica die werkt aan kunstmatige huid en gesensoriseerde lichamen, heb ik ontdekt dat het proberen om robots een gevoel van aanraking te geven ons dwingt onder ogen te zien hoe verbazingwekkend verfijnd menselijke aanraking werkelijk is.
Mijn werk begon met de ogenschijnlijk eenvoudige vraag hoe robots de wereld via hun lichaam kunnen waarnemen. Ontwikkel tactiele sensoren, bedek er een machine volledig mee, verwerk de signalen en op het eerste gezicht zou je zoiets als aanraking moeten krijgen.
Behalve dat menselijke aanraking niets lijkt op een simpele drukkaart. Onze huid bevat verschillende soorten mechanoreceptoren, elk afgestemd op verschillende stimuli zoals trillingen, rek of textuur. Onze ruimtelijke resolutie is opmerkelijk fijn en, cruciaal, aanraking is actief: we drukken, glijden en passen voortdurend aan, waarbij we rauwe sensaties omzetten in perceptie door middel van dynamische interactie.
Ingenieurs kunnen hiervan soms een versie op vingertopschaal nabootsen, maar het reproduceren ervan over een heel zacht lichaam, en een robot de mogelijkheid geven om deze rijke sensorische stroom te interpreteren, is een uitdaging van een heel andere orde.
Het werken aan een kunstmatige huid brengt ook al snel een ander inzicht aan het licht: veel van wat wij ‘intelligentie’ noemen, leeft niet alleen in de hersenen. De biologie biedt treffende voorbeelden, waarvan de bekendste de octopus is.
Octopussen verspreiden de meeste van hun neuronen over hun ledematen. Uit onderzoek naar hun motorische gedrag blijkt dat een octopusarm bewegingspatronen lokaal kan genereren en aanpassen op basis van sensorische input, met beperkte input van de hersenen.
Hun zachte, meegaande lichamen dragen rechtstreeks bij aan hoe ze zich in de wereld gedragen. En dit soort gedistribueerde, belichaamde intelligentie, waarbij gedrag voortkomt uit de wisselwerking tussen lichaam, materiaal en omgeving, krijgt steeds meer invloed in de robotica.
Aanraking is toevallig ook het eerste zintuig dat mensen in de baarmoeder ontwikkelen. Ontwikkelingsneurowetenschappen tonen aan dat tactiele gevoeligheid opkomt vanaf ongeveer acht weken zwangerschap, en zich vervolgens tijdens het tweede trimester over het lichaam verspreidt. Lang voordat het zicht of gehoor betrouwbaar functioneert, verkent de foetus zijn omgeving door middel van aanraking. Aangenomen wordt dat dit helpt vorm te geven aan de manier waarop baby’s inzicht krijgen in gewicht, weerstand en ondersteuning – de basisfysica van de wereld.
Dit onderscheid is ook van belang voor de robotica. Decennia lang hebben robots sterk vertrouwd op camera’s en lidars (een detectiemethode die lichtpulsen gebruikt om afstand te meten) terwijl ze fysiek contact vermijden. Maar we kunnen niet van machines verwachten dat ze in de fysieke wereld competentie op menselijk niveau bereiken als ze dit zelden via aanraking ervaren.
Simulatie kan een robot nuttig gedrag aanleren, maar zonder echte fysieke verkenning bestaat het risico dat intelligentie alleen maar wordt ingezet in plaats van wordt ontwikkeld. Om te leren zoals mensen dat doen, hebben robots lichamen nodig die voelen.
Een ‘zachte’ robothand met tactiele sensoren, ontwikkeld door het Soft Robotics Lab van de Universiteit van Oxford, pakt een appel aan. Video: Oxford Robotics Institute.
Eén benadering die mijn groep onderzoekt, is om robots een zekere mate van ‘lokale intelligentie’ te geven in hun sensorische lichamen. Mensen profiteren van de soepelheid van zachte weefsels: de huid vervormt op manieren die de grip vergroten, de wrijving vergroten en sensorische signalen filteren voordat ze zelfs maar de hersenen bereiken. Dit is een vorm van intelligentie die rechtstreeks in de anatomie is ingebed.
Onderzoek op het gebied van zachte robotica en morfologische berekeningen stelt dat het lichaam een deel van de werklast van de hersenen kan verlichten. Door robots te bouwen met zachte structuren en verwerking op laag niveau, zodat ze de grip of houding kunnen aanpassen op basis van tactiele feedback zonder te wachten op centrale commando’s, hopen we machines te creëren die veiliger en natuurlijker omgaan met de fysieke wereld.

De gezondheidszorg is een gebied waarop dit vermogen een groot verschil kan maken. Mijn groep heeft onlangs een robotachtige patiëntensimulator ontwikkeld voor het trainen van ergotherapeuten (OT’s). Leerlingen oefenen vaak op elkaar, wat het moeilijk maakt om de genuanceerde tactiele vaardigheden te leren die nodig zijn om iemand veilig te ondersteunen. Bij echte patiënten moeten cursisten een balans vinden tussen functionele en affectieve aanraking, persoonlijke grenzen respecteren en subtiele signalen van pijn of ongemak herkennen. Onderzoek naar sociale en affectieve aanraking laat zien hoe belangrijk deze signalen zijn voor het menselijk welzijn.
Om cursisten deze interacties te helpen begrijpen, produceert onze simulator, bekend als Mona, praktische gedragsreacties. Wanneer een OT bijvoorbeeld op een gesimuleerd pijnpunt in de kunsthuid drukt, reageert de robot verbaal en met een kleine fysieke ‘hitch’ van het lichaam om ongemak na te bootsen.
Op dezelfde manier, als de stagiair een ledemaat probeert te bewegen die verder gaat dan wat de gesimuleerde patiënt kan verdragen, spant de robot zich aan of biedt hij weerstand, waardoor een realistisch signaal wordt gegeven dat de beweging moet stoppen. Door tactiele interactie vast te leggen via kunstmatige huid, geeft onze simulator feedback die nog nooit eerder beschikbaar was in OT-training.
Robots die erom geven
In de toekomst zouden robots met veilige, gevoelige lichamen de groeiende druk in de sociale zorg kunnen helpen aanpakken. Naarmate de bevolking ouder wordt, merken veel gezinnen plotseling dat ze familieleden moeten tillen, herpositioneren of ondersteunen zonder formele training. ‘Zorgrobots’ zouden hierbij helpen, waardoor het gezinslid mogelijk langer thuis verzorgd zou kunnen worden.
Verrassend genoeg is de vooruitgang bij de ontwikkeling van dit type robot veel langzamer gegaan dan de eerste verwachtingen suggereerden – zelfs in Japan, waar enkele van de eerste prototypes van zorgrobots werden geïntroduceerd. Een van de meest geavanceerde voorbeelden is Airec, een mensachtige robot die is ontwikkeld als onderdeel van het Moonshot-programma van de Japanse overheid om te helpen bij verpleegkundige en ouderenzorgtaken. Dit veelzijdige programma, gelanceerd in 2019, streeft naar “ambitieuze R&D gebaseerd op gedurfde ideeën” om een “maatschappij op te bouwen waarin mensen tegen 2050 vrij kunnen zijn van beperkingen van lichaam, hersenen, ruimte en tijd”.
De Japanse Airec-zorgrobot is een van de meest geavanceerde in ontwikkeling. Video van Global Update.
Over de hele wereld blijft het echter moeilijk om onderzoeksprototypes te vertalen naar gereguleerde robots. Hoge ontwikkelingskosten, strenge veiligheidseisen en het ontbreken van een duidelijke commerciële markt hebben de vooruitgang allemaal vertraagd. Maar hoewel de technische en regelgevende belemmeringen aanzienlijk zijn, worden ze gestaag aangepakt.
Robots die veilig een nauwe fysieke ruimte met mensen kunnen delen, moeten voelen en moduleren hoe ze alles aanraken dat in contact komt met hun lichaam. Deze gevoeligheid voor het hele lichaam is wat de volgende generatie zachte robots zal onderscheiden van de hedendaagse starre machines.
We zijn nog ver verwijderd van robots die deze intieme taken zelfstandig kunnen uitvoeren. Maar het bouwen van machines met aanraakbediening verandert ons begrip van aanraking al. Elke stap richting robotische tactiele intelligentie benadrukt de buitengewone verfijning van ons eigen lichaam – en het diepe verband tussen sensatie, beweging en wat wij intelligentie noemen.
Dit artikel is geschreven in samenwerking met het Professorsprogramma, onderdeel van Prototypes for Humanity, een mondiaal initiatief dat academische innovatie demonstreert en versnelt om sociale en ecologische uitdagingen op te lossen. The Conversation is de mediapartner van Prototypes for Humanity 2025.![]()
Perla Maiolino, universitair hoofddocent Ingenieurswetenschappen, lid van het Oxford Robotics Institute, Universiteit van Oxford
Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.

Het gesprek
is een onafhankelijke bron van nieuws en standpunten, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.

Het gesprek
is een onafhankelijke bron van nieuws en standpunten, afkomstig uit de academische en onderzoeksgemeenschap en rechtstreeks aan het publiek geleverd.


