#1 Verschuivende grenzen
‘Toen in 1968 de eerste reageerbuisbaby in Amerika werd geboren, was er vooraf zoveel discussie dat artsen zelfs politiebescherming kregen. Maar toen de baby er eenmaal was, verschoof de moraal: tien jaar later vonden we het belangrijk dat paren die anders ongewenst kinderloos bleven, alsnog ouders konden worden. Toch blijft het in het zorgonderwijs raadzaam om professionals steeds een afweging te leren maken: wat levert een nieuwe dienst op en wat kost het, in termen van geld, maar ook privacy of data. Facebook brengt bijvoorbeeld een leuk platform, maar houdt ook bij wat je liket en hoe lang je naar een post kijkt. Wat als het straks ook je hartslag meet?’
#2 Data de baas blijven
‘Stel je voor dat een zorgrobot besluit om op basis van het geleerde algoritme een ontstoken teen niet te behandelen en het blijkt om een kwaadaardige infectie te gaan waaraan de patiënt een paar dagen overlijdt. Wie is dan aansprakelijk: de robotontwikkelaar of de thuiszorg? Nu nog zeggen we dat het algoritme vooral adviserend is en een mens het besluit neemt. Maar wat als tools straks gemeengoed worden? Daar zijn we nog niet uit. Voor studenten is het daarom belangrijk om stil te staan bij aspecten als aansprakelijkheid, maar ook hoe transparant een algoritme is en hoe het tot beslissingen komt.’
#3 Oog houden voor mensen
‘Menselijk gedrag laat zich niet zo makkelijk vangen in algoritmes als ontwikkelaars ons willen doen geloven. Een stappenteller is mooi, maar er zijn ook mensen die het apparaatje om de poot van hun hond doen en die eens lekker later rennen. Verder zijn mensen niet altijd te overtuigen met feiten en data. Tot slot moeten zorgmedewerkers leren werken met zorgrobots en andere technologie, maar dat geldt ook voor de gebruiker die ermee moet samenwerken. Voor al die menselijke kanten moeten we in het zorgonderwijs oog houden.’
Tekst: Naomi van Esschoten