13 september 2018 1232 Views

Waarom menselijkheid centraal moet staan in het ontwerp van AI

4 reacties

6 november 2018 om 2:57 pm

Stefan van Duin (Deloitte)

Beste SJ, dank voor je reactie. De strekking is niet zozeer dat een AI systeem, of de werking ervan, moet lijken op een mens, maar meer dat bij het ontwerp ervan rekening gehouden moet worden met hoe mensen werken met AI. Daarbij is de mogelijkheid om "over het hart te strijken" een goede suggestie. Overigens is de volgende link wellicht interessant over het thema welke factoren meegenomen worden in het AI systeem: https://www.deloitteforward.nl/en/artificial-intelligence/accountability-of-artificial-intelligence/

6 november 2018 om 11:51 am

Mark van Rosmalen (Deloitte)

Definitie van AI; "het nabootsen van menselijke intelligentie" Bottom line zijn er 3 grove vormen van AI; 1) zwakke AI (bv schaakcomputers), 2) sterke AI (Watson van IBM) en 3) Superintelligentie. Bij deze laatste word de menselijke intelligentie overstegen. Op het vlak van o.a. sociale vaardigheden, creativiteit en wijsheid. Kunstmatige intelligentie is JUIST het (zelflerend) afvangen van taken, die voor de mens ondoenlijk of gewoon onmogelijk zijn. Daarom indexeert Google ook met behulp AI en niet door medewerkers van Google zelf. Het algoritme doet het werk hier. De paradox van Moravec komt hierbij om de hoek kijken; wat makkelijk is voor de mens, is moeilijk voor de computer. En omgekeerd. Beeldherkenning is voor een computer veel moeilijker dan voor de mens. Deze paradox bestaat en zal altijd blijven bestaan. De menselijke maat of menselijkheid speelt dus nog steeds een rol. Moet de menselijkheid in AI hiermee dan ook centraal staan? Met behulp van superintelligentie kunnen we vermeende ongeneeslijke ziektes mogelijk straks alsnog oplossen, of onszelf onsterfelijk maken door DNA te repareren en in te grijpen op gen niveau. Staat de menselijkheid hier centraal? Zeg het zelf maar. Het raakt de menselijkheid zeker. Ons denken heeft zekere begrenzingen, deels door educatie zelf. Omdat we geleerd worden zaken te onthouden, terwijl het beter geweest zou zijn om niet de geijkte weg naar een oplossing te bewandelen, maar om studenten uit te dagen om met alternatieven te komen, die niet per definitie beter of slechter zijn, maar gewoon anders. Dogma in de wetenschaps literatuur is zo'n element. Zelfs in die van Einstein en andere grootheden. Ik trek me echter weinig aan van dogma en bewandel probleemloos andere wegen, kijken wat er gebeurt op die 'journey'. Ik denk dat AI systemen uiteindelijk ook die weg zullen inslaan, weg van het geijkte pad. Zoeken naar alternatieven en proberen. Vallen en opstaan, leren hiervan zoals een baby/peuter doet als deze leert lopen. Niet nadoen, maar eigenzinnig een eigen pad inslaan. Wat is de menselijke maat uberhaubt? Geen mens is dezelfde en geen enkel mens is de 'norm'. Ik denk dat elke vorm van begrenzing de mogelijkheden meteen limiteert. Computers kennen deze menselijke 'sociale beperking' (of sociale druk) niet, die wij wel kennen. Omdat anders zijn of doen vaak leidt tot uitsluiting. Dat probleem kent een computer systeem weer niet. Hier is de computer mogelijk zelfs in het voordeel, omdat deze menselijke emotie(s) niet kent. En ik denk dat we dat ook vooral zo moeten houden :p

6 november 2018 om 10:09 am

Redactie Deloitte Forward

Dank voor je mening SJ Bier, we zijn benieuwd naar de mening van anderen uit het vak? Egbert

6 november 2018 om 8:56 am

SJ Bier (DENSO Europe B.V.)

Mischien is het wel juist niet belangrijk om AI op mensen te laten lijken. Hoe groter het onderscheid met mensen (menselijkheid), hoe duidelijk kleinere weeffouten zijn. Als het allemaal bijna precies klopt, zie je de keuzes van de programmeur minder helder en wordt je makkelijker meegezogen in een verkeerde stroom. Vergelijk het met AI verzekeringen, als blijkt dat de automatisch aangepaste premie is berekend op een vrouw en jij bent een man, kan je makkelijk aantonen dat de AI niet goed genoeg was. Hoe meer factoren meewegen hoe zwaarder de druk en de last om aan te tonen dat de AI het fout heeft. Dat schijnt bij sommige premiecomponenten die uitgaan van een risico o.b.v. publieke data al behoorlijk pittig te zijn (simpel voorbeeld: als nergens geregistreerd is dat jij een alarmsysteem hebt en de rest van de buurt niet). Dat is ook een algemeen nadeel van AI: het kan alleen evenementen en beschikbare gegevens meenemen in de overweging. Om er dan maar meteen aan toe te voegen dat dit ook voor mensen geldt, die weten ook niet alles. Als het goed is zijn die wel goed in het over het hart strijken "je hebt gelijk, dat wist ik niet".

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond.