Da Aftenposten-sjef Trine
Eilertsen med streng mine avkledde Aschehoug forlag i Dagsnytt 18 for
noen uker siden, var det tilliten til norske medier hun forsvarte. Bransjen
heiet betimelig fra sidelinjen.
«Tilliten til redaktørstyrte
medier» er nærmest blitt et moteuttrykk like selvfølgelig som å advare mot «de
globale gigantene», med eller uten «tech» foran gigant.
Men mens tilliten forsvares med
ord (og strenge miner), utfordres den i praksis av den samme mediebransjen som er helt
avhengig av den.
Er virkelig bruken av KI et være eller ikke være for
norske medier? Hvis svaret er ja, er det lov
å etterspørre en litt mindre uforsiktig eksperimentering?
Denne uka forteller Avisa Nordland stolt om sin
KI-genererte podkast. De har tatt en sterkt salgsutløsende artikkelserie, matet
den inn i en robot, og fått elleve podkastepisoder tilbake. Komplett med en
bergenser som oppleser. Men det mest oppsiktsvekkende med bergenseren, er
ikke at hun er vestlending i en nordnorsk avis’ podkast. Det mest
oppsiktsvekkende med kvinnen er at hun slettes ikke er kvinne. Men robot, hun
også.
Denne detaljen får ikke lytteren med seg, for den
opplyses det kun om helt nederst i podkastens hovedomtale. Det kan synes å ikke
være en så veldig viktig detalj.
Podkastvarianten av artikkelserien får tommel opp
fra Trine Eilertsens Schibsted-kollega, Gard Steiro. Han hyller
eksperimentering med KI-bruk og mener alle må ombord i KI-skuten. (Han er fra
Bergen og kan få si skuten, men hva er det med norske redaktører og maritime
metaforer?)
Mens bodøværingene tester
KI-stemmer, får avisene i Trøndelag nå konkurranse fra fire helt nye kolleger: KI-journalistene
Jon, Anton og Kari, og en navnløs redaktør med stor R i Melhusposten.no. Melhusposten
er en avis uten journalister, uten redaksjonsmøter og uten faktiske mennesker
bak de etternavnløse journalistene. Alt er researchet og skrevet av maskiner på
bestilling fra en IT-gründer som hevder Melhusposten er et forsøksprosjekt.
Sakene i avisa er basert på åpne, skriftlige kilder som tråles av agenter gründeren
har opprettet. I Melhus har KI-verktøyene fått fast ansettelse. Og bylinebilde.
I NTB er det fortsatt ekte
mennesker på jobb, men nyhetsbyrået måtte nylig trekke en sak etter å ha funnet
på både sitater og folk. Den ekte journalisten på jobb brukte KI-verktøy i arbeidet med saken.
Nyhetsredaktøren har kalt det en alvorlig feil, og understreker til og med at
det er menneskelig å feile. Hendelsen er tatt opp og diskutert internt.
Også i Rana No gikk det
skikkelig galt tidligere i høst. Avisa skrev at en mann var siktet for voldtekt og overgrep mot barn, mens de faktiske tingene han var siktet for var
trusler, tyveri og skadeverk. Journalisten hadde brukt KI-verktøy for å sjekke
paragrafene i kjennelsen.
Eksemplene fra NTB og Rana No har det til felles at manglende menneskelig
oppfølging av koko KI-generert innhold får store konsekvenser på trykk. Hadde innholdet
blitt funnet på av et menneske, er det ikke usannsynlig at mennesket hadde fått
fyken. Eller i alle fall ikke fått jobb i Stiftelsen Tinius eller plass i
Skup-styret. Det hadde blitt stor ståhei, og det
bør bli stor ståhei hver gang norske medier presenterer fantasi og hallusinasjoner
som noe som er sant.
Publikums tillit til norske
medier er fortsatt høy. Men hver gang publikum må lure på om
kilden finnes, sitater er for gode for å være sanne, eller om stemmen er ekte, risikerer vi å bryte
den skjøre kontrakten som skiller journalistikken fra alt annet innhold vi liker å hate at har større oppslutning enn vårt: det at
noen faktisk står for det som sies. Og at noen faktisk er et ekte menneske som er i stand til å ta ansvar for det som publiseres.
———————————————-
Dette er en kommentar, og gir uttrykk for skribentens mening. Har du lyst til å skrive i Medier24? Send ditt innlegg til meninger@medier24.no.