Artificial Intelligence

Artificial Intelligence

Ver genoeg ontwikkeld of niet verantwoord om te gebruiken?

Is het verantwoord om Artificial Intelligence te implementeren in systemen of is de technologie nog niet ver genoeg ontwikkeld? Mijn standpunt is dat Artificlal Intelligence veel mogelijkheden biedt welke je indien mogelijk moet grijpen. Eventuele ruimte voor fouten moet men zo klein mogelijk maken gezien de grote kans op imagoschade.

Artificial intelligence(AI) of kunstmatige intelligentie, iedereen kan wel een aantal toepassingen bedenken waar hij of zij baat bij zou hebben. Men maakt vaak onbewust al gebruik van AI door toepassingen zoals chatmedewerkers op websites, apps die je vertellen hoe laat je bus echt komt en nog veel meer.

Ook wordt het gebruikt om ontregelend te zijn op andere markten. Zo is er volgens een artikel van James Gallagher met behulp van kunstmatige intelligentie is een medicijn tegen kanker ontwikkeld wat in klinische tests liet zien de groei van kankercellen te kunnen verminderen. Een computer kan ongetwijfeld beter grote sommen variabelen tegen elkaar afwegen om bepaalde keuzes te maken maar er blijft ook altijd een ethisch vraagstuk over in dit geval (Artificial Intelligence ‘outsmarts cancer’ , 2016).
Kunstmatige intelligentie kan in de ogen van de consument dan ook meer fout dan goed doen. Zo was er in maart 2016 nog een chatrobot van Microsoft op Twitter gelanceerd. Deze robot had binnen 24 uur zoveel verkeerde dingen geleerd dat deze fan was geworden van Hitler en racistische uitlatingen deed (The verge, 2016).

Maar; vraagt iedereen zich af: wat als het misgaat? Er zijn genoeg voorbeelden van doorgedraaide machines; denk bijvoorbeeld aan films als the ‘Terminator’ met Arnold Schwarzenegger of ‘I, Robot’ met Will Smith. Naast deze negatieve voorbeelden kan ik geen positieve voorbeelden van AI in de filmindustrie opnoemen.

Volledig autonome machines die zelf leren, interpreteren en keuzes kunnen maken. Met kunstmatige intelligentie is het allemaal mogelijk. Men moet na gaan denken over de het blijven beheersen van een lerende machine. Zou het vragen of opdrachten kunnen negeren of zichzelf leren dit te doen? Google heeft een rode knop voorgesteld dat Artificial Intelligence ervan kan weerhouden een schadelijke reeks acties uit te voeren (Wired.co.uk, 2016). Het idee is een script te ontwikkelen dat in alle algoritmes kan worden verwerkt welke direct kan worden geactiveerd bij problemen/misbruik.

Volgens een marktrapport van Transparancy Market Research is de globale markt voor Artificial Intelligence gewaardeerd op $126 miljard in 2015. Deze markt groeit naar verwachting met gemiddeld 36% per jaar tot $3061 miljard in 2024 (Artificial Intelligence Market, 2016).
Met deze groeiverwachtingen en bijbehorende cijfers is het duidelijk dat Artificial Intelligence een van de grootste technologische trends van het moment is. Grote bedrijven als IBM, Apple, Facebook, Amazon en Google spelen al in op deze beweging. Zij zijn actief op zoek naar businessmodellen om een marktaandeel te krijgen in AI (Rodriguez, 2016).

In een artikel van het MIT Technology Review komt naar voren dat grote bedrijven als Facebook, Google of andere bedrijven actief bezig zijn een ‘lerende’ machine te maken. Stuart J. Russel, auteur van Artificial Intelligence; a modern approach wat het handboek voor kunstmatige intelligentie is op ruim 1300 universiteiten, stelt dat zij juist niet volle kracht vooruit moeten gaan zolang zij niet goed hebben nagedacht over de potentiele risico’s (Our fear of artificial intelligence, 2015). Een manifestatie van eventuele risico’s zou de branche misschien wel onherstelbare (imago)schade kunnen toebrengen.

De grootste uitdaging ligt dan ook in de negatieve associaties oftewel het imago rond kunstmatige intelligentie. De perceptie dat AI een bedreiging vormt, is voornamelijk gevormd dat Hollywood; aldus een groep wetenschappers gesponsord door de Association for the Advancement of Artificial Intelligence (New York Times, 2016).

 

 

Safety first

Een van de plekken waar kunstmatige intelligentie zich momenteel manifesteert is in de autobranche. Er zijn auto’s die zelfstandig kunnen inparkeren maar steeds vaker hoor je over de zelfrijdende auto. Maar wanneer kan je een zelfrijdende auto als veilig bestempelen?

Volgens de autoriteiten rond verkeersveiligheid in de VS hoeft de wettelijke bestuurder van een auto geen mens meer te zijn maar kan dat ook een vorm van kunstmatige intelligentie zijn. Zo is tegen Google gezegd dat het AI-systeem in de zelfrijdende auto die zij hebben ontwikkeld een wettelijke toegestane bestuurder is. Je zou dus kunnen zeggen dat deze auto’s als veilig worden bestempeld, helaas gaat het toch nog mis.

De ‘self-driving car’ van Google had in februari 2016 een aanrijding met een bus. Google gaf toe dat de oorzaak bij hun lag; zij beargumenteerde dit door te zeggen dat het AI-systeem van de auto een foute aanname had gemaakt over wat de bus zou doen (Prigg, 2016). Er schijnen nog ergere dingen gebeurd te zijn met de zelfrijdende auto van Google wat kunstmatige intelligentie in een slecht daglicht zou kunnen brengen.

Musk zei in Juni 2016 nog dat hij maar een bedrijf kon bedenken waarvan hij het erg risicovol vindt dat zij met kunstmatige intelligentie bezig zijn (McCormick, 2016). Volgens meerdere bronnen lijkt hij hierbij te suggereren naar Google.

Slimme computers gevaarlijk?

Elon Musk, oprichter van Tesla presenteert zichzelf als voorstander van kunstmatige intelligentie die sterk bewust is van de mogelijke gevaren. Musk heeft zelf 10 miljoen dollar gedoneerd om kunstmatige intelligentie veilig te houden, en indirect het imago ervan bij te schaven. Hij investeert dan ook liever in een preventieve aanpak, gezien hij niet zeker weet of de branche het kan overleven wanneer er bepaalde fouten plaatsvinden (Kastrenakes, 2015).

John Cohn van IBM bevestigd dat Hollywood een negatief beeld heeft gevormd van kunstmatige intelligentie. Hij is echter zeer positief over AI en zegt dat robots de gezondheidszorg, veiligheid en op andere aspecten juist kan helpen. Hij benadrukt dat computers veel meer variabelen kunnen afwegen bij een beslissingen om zo de keuze te verbeteren. In de toekomst zullen deze systemen ook gevoelens en bedoelingen allemaal juist interpreteren (Nu.nl, 2014).

Uiteraard blijft elke technologie zich ontwikkelen en moet de kunstmatige intelligentie het hebben van de meest recente ontwikkelingen. De markt groeit behoorlijk hard met gemiddeld 36% per jaar en dus zijn er nog grote ontwikkelingen te verwachten de komende jaren.
Kortom; wanneer er publiekelijk grote fouten worden gemaakt rond innovatieve technologieën als kunstmatige intelligentie dan kan het imago van de branche met stappen terug worden gebracht wat meerdere partijen schade kan toebrengen. Uit diverse bronnen blijkt helaas dat grote bedrijven als Google en Microsoft grote projecten met AI openbaar lanceren en vervolgens een snoekduik nemen qua imago; ten koste van het algemene imago van kunstmatige intelligentie.

Een misstap in AI kan dus effect hebben op miljarden euro’s aan investeringen. Het is dus erg belangrijk preventief te werk te gaan omdat fouten met AI-systemen en met name de zelflerende systemen imagoschade kunnen brengen. De vooruitgang moet in dit geval lijden onder de veiligheid van de systemen.

Voordat men iets op basis van kunstmatige intelligentie kan lanceren moet hij/zij zich de vraag stellen of het zo erg mis kan gaan dat andere partijen binnen de AI er last van kunnen krijgen. Indien dit zo is, dan is het alleen verantwoord om door te gaan als men aantonen dat het preventief te werk gaat om imagoschade te voorkomen.

Het grootste risico voor imagoschade lijkt dus vooralsnog te liggen in het, voornamelijk te snel, lanceren van systemen die nog niet naar behoren werken. Met name de systemen die zelf leren, interpreteren en keuzes maken blijken vaak te snel te worden gelanceerd; zie Google en Microsoft. Wanneer een systeem wordt goedgekeurd, zowel intern als extern kan het blijkbaar nog steeds goed mis gaan.

Mijn standpunt is dat kunstmatige intelligentie veel mogelijkheden biedt waarbij de preventieve aanpak de enigste juiste aanpak is. Dit betoog eindigt met een quote die hierop aansluit:

 

“Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks.” – Stephen Hawking

 

 

Literatuurlijst

  • Bank of America Merril Lynch. (2015). Robot Revolution – Global Robot & AI Primer. Web: Bank of America Merril Lynch.
  • Ford, P. (2015, mar). Our fear of artificial intelligence. Opgeroepen op 06 8, 2016, van Technology Review no. 118: http://ezproxy.hro.nl/login?url=http://search.proquest.com.ezproxy.hro.nl/docview/1677666779?accountid=110101
  • Gallagher, J. (2016, jun 08). Artificial Intelligence ‘outsmarts cancer’ . Opgehaald van BBC News: http://www.bbc.com/news/health-36482333 IBM. (2016). IBM Watson. Opgehaald van IBM Watson: http://www.ibm.com/smarterplanet/us/en/ibmwatson/
  • Kastrenakes, J. (2015, jan 01). Musk donates $10 million to keep robots from murdering you. Opgehaald van The verge: http://www.theverge.com/2015/1/15/7551687/elon-musk- donates-10-million-to-prevent-killer-ai
  • McCormick, R. (2016, jun 02). There’s only one AI company that worries me. Opgehaald van The verge: http://www.theverge.com/2016/6/2/11837566/elon-musk-one-ai-company- that-worries-me
  • New York Times. (2016, 05 26). Artificial Intelligence Is Far From Matching Humans, Panel Says . Opgehaald van New York Times: http://www.nytimes.com/2016/05/26/technology/artificial-intelligence-is-far-from- matching-humans-panel-says.html?_r=0
  • Nu.nl. (2014, mei 14). ‘Vrees kunstmatige intelligentie niet’ . Opgehaald van Nu.nl: http://www.nu.nl/internet/3527360/vrees-kunstmatige-intelligentie-niet.html
  • Prigg, M. (2016, mar 14). Can self-driving cars cope with illogical humans? Opgeroepen op jun 10, 2016, van Daily Mail: http://www.dailymail.co.uk/sciencetech/article- 3491916/Google-admits-self-driving-car-got-wrong-Bus-crash-caused-software- trying-predict-driver-do.html
  • Rodriguez, J. (2016, 04 30). The race to monetize artificial intelligence is on. Opgeroepen op 06 10, 2016, van CIO: http://www.cio.com/article/3076154/internet-of-things/the- race-to-monetize-artificial-intelligence-is-on.html
  • The verge. (2016, 03 24). Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. Opgehaald van The verge: http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
  • Transparancy Market Research. (2016). Artificial Intelligence Market. New York: Transparancy Market Research.
  • Verhage, B. (2013). Grondslagen van de marketing (8e ed.). Groningen: Noordhoff uitgevers. Wired.co.uk. (2016, 06 03). Google’s ‘big red’ killswitch could prevent an AI uprising. Opgehaald van Wired: http://www.wired.co.uk/article/google-red-button-killswitch- artificial-intelligence
Artificial Intelligence

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *