De Wereldgezondheidsorganisatie (WHO) roept op tot veilige en ethische ai voor de gezondheid. De organisatie maant tot voorzichtigheid bij het gebruik van generatieve ai en grote taalmodellen zoals ChatGPT en Bard.
Het is absoluut noodzakelijk dat de risico’s zorgvuldig worden onderzocht bij het gebruik van ai om de toegang tot gezondheidsinformatie te verbeteren, als hulpmiddel bij het nemen van beslissingen, of zelfs om de diagnostische capaciteit te verbeteren. Dit geldt met name in omgevingen met onvoldoende middelen om de gezondheid van mensen te beschermen en ongelijkheid te verminderen.
De WHO ziet zeker de potentie van ai om medici, zorgprofessionals, patiënten, onderzoekers en wetenschappers te ondersteunen. Maar de organisatie is bang dat de voorzichtigheid die normaal gesproken wordt betracht bij nieuwe technologie, zoals De Wereldgezondheidsorganisatie (WHO) roept op tot veilige en ethische ai voor de gezondheid. De organisatie maant tot voorzichtigheid bij het gebruik van generatieve ai en grote taalmodellen (large language models; LLM’s) zoals ChatGPT en Bard. met voeten wordt getreden. Ze roept op tot wijdverspreide naleving van kernwaarden van transparantie, inclusie, publieke betrokkenheid, deskundige supervisie en strenge evaluatie.
Overhaaste acceptatie van niet-geteste systemen kan leiden tot fouten door gezondheidswerkers, schade toebrengen aan patiënten en het vertrouwen in ai ondermijnen. Dat ondermijnt of vertraagt de potentiële langetermijnvoordelen en het gebruik van dergelijke technologieën over de hele wereld.
Europees Parlement
Overigens stemde het Europees Parlement onlangs over nieuwe ai-wetgeving. Het voorstel van de Europese Commissie kon op een grote meerderheid rekenen. De wet regelt dat kunstmatige intelligentie op een verantwoorde manier in Europa wordt gebruikt. Zo moeten ai-systemen veilig en transparant zijn. Daarnaast mogen algoritmes niet discrimineren of mensenrechten schenden.
Voor bepaalde systemen is geen ruimte in Europa. Denk aan computersystemen die het gedrag van burgers analyseren en hen op basis daarvan beoordelen. Er komt een controle op het ontwerp van ai-systemen. De impact op burgers wordt ook in ogenschouw genomen. Het indienen van klachten en krijgen van uitleg over ai-systemen moet makkelijker worden.
Bedrijven en ontwikkelaars moeten transparant zijn over het gebruik van kunstmatige intelligentie en duidelijk maken hoe deze systemen werken. Daardoor valt beter te achterhalen hoe de ai aan haar antwoorden komt en of die kloppen.