Artificiële Intelligentie voor onderzoeksjournalistiek?

FOR SOCIETY

Om op een goede manier bij te kunnen dragen aan een duurzame, inclusieve en vitale samenleving hebben we ons onderzoek georganiseerd rondom zes maatschappelijke kennisthema’s: de thema’s waarop Fontys écht het verschil kan maken.

Artificiële Intelligentie (AI) heeft veel potentie voor onderzoeksjournalistiek. Het kan redacties faciliteren bij het opschonen, ordenen en interpreteren van data. Ook kan het bijdragen aan nieuwe invalshoeken voor verhalen. Toch wordt AI vooralsnog spaarzaam ingezet. Nationaal Regieorgaan SIA ziet deze potentie ook en heeft daarom een RAAK publiek subsidie aan dit onderzoeksproject toegekend. 

Analyse van data door middel van AI
Voor de journalistieke onthullingen rondom de Pandora Papers (oktober 2021), werden bijna 12 miljoen documenten doorzocht op het oprichten van brievenbusfirma’s en offshore-vennootschappen. 600 journalisten werden daarbij ondersteund door Artificiële Intelligentie (AI), waarmee de enorme hoeveelheid data sneller kon worden geanalyseerd. Ook werd AI ingezet bij onderzoek naar de invloed van Instagrams algoritme op de posts van politici gedurende campagnetijd. Politici die selfies op Instagram plaatsen, blijken hoog in de tijdlijn van gebruikers te staan. Door het algoritme te leren op welke signalen het moet letten, kon worden aangetoond dat Instagram de voorkeur geeft aan persoonlijk gekleurde campagneberichten.

Uitdagingen bij inzet AI in onderzoeksjournalistiek
Artificiële Intelligentie (AI) heeft veel potentie voor onderzoeksjournalistiek. Dat het vooralsnog spaarzaam ingezet wordt,  heeft te maken met uitdagingen van praktische, maatschappelijke en ethische aard. Het trainen van een algoritme is een tijdrovende en precaire aangelegenheid waarbij goede kennis van de werking van AI noodzakelijk is, die redacties niet hebben. Voor mediaredacties is het daarnaast onduidelijk of investeringen in AI de gewenste onderzoeksjournalistieke impact hebben en ontbreekt het aan kennis over de manier waarop AI zich verhoudt tot journalistieke waarden en wet- en regelgeving. 

Lector Moral Design Strategy Bart Wernaart: “In dit onderzoek werken ethici, juristen, data-en artificiële Intelligentie engineers en journalistieke onderzoekers samen. Juist vanuit die verschillende invalshoeken kunnen we de mogelijkheden en randvoorwaarden voor onderzoeksjournalistieke AI in kaart brengen.” 
Danielle Arets, lector Journalistiek en Verantwoorde Innovatie, vult aan: “Met de toenemende interesse in onderzoeksjournalistiek en de groeiende hoeveelheid data is slim zoeken, selecteren en cureren van groot belang. Artificiële Intelligentie kan daar wellicht een goede partner bij zijn. Hoe? Dat gaan we de komende jaren verder onderzoeken!”

It’s a match!
Het Lectoraat Moral Design Strategy (penvoerder) gaat samen met de Fontys lectoraten Design & Interactie, Big data & AI en Journalistiek & Verantwoorde Innovatie en het lectoraat Kwaliteitsjournalistiek in Digitale Transitie van Hogeschool Utrecht aan de slag met dit onderzoek. Dat doen ze samen met het Nederlands Instituut voor Beeld en Geluid, Pointer en Omroep Flevoland. Ook publieke partners Games for Health, MindLabs, L1, RTV Utrecht, Omroep West en IDfuse doen mee. Het onderzoeksproject wordt gesubsidieerd met een RAAK publiek-subsidie van Nationaal Regieorgaan SIA.

Meer weten?
Op de website van Fontys vind je meer informatie over de deelnemende lectoraten. Bij vragen over dit onderzoeksproject kun je contact opnemen met lectoren Bart Wernaart of Danielle Arets.

 

Auteur Michelle Breemans

Meer nieuws

Fontys Pabo Veghel sluit na 152 jaar haar deuren
Save the Date: lectorale rede Danielle Arets 3 oktober 2024
Fontys Pabo Veghel sluit na 152 jaar haar deuren

Komt jouw beschikbaarheid niet overeen met die van de opleidingsmanager van je voorkeur. Plan dan evengoed een gesprek in! Elk van de aangegeven personen kan het gesprek met je aangaan.

Wil jij ook impact maken?

Plan dan nu een online kennismakingsgesprek en ontdek jouw carrièremogelijkheden bij Fontys Engineering.