BBC's Eksperiment afslører alvorlige fejl i AI-genererede nyhedsartikler

Teknologi Berita

BBC's Eksperiment afslører alvorlige fejl i AI-genererede nyhedsartikler
AINyhedsartiklerBBC
  • 📰 ingdk
  • ⏱ Reading Time:
  • 157 sec. here
  • 10 min. at publisher
  • 📊 Quality Score:
  • News: 87%
  • Publisher: 63%

Et nyt eksperiment fra BBC viser, at AI-genererede nyhedsartikler ofte indeholder fejl. Analyse af fire store sprogmodeller (ChatGPT-4o, Microsoft Copilot Pro, Google Gemini Standard og Perplexity) viste, at over halvdelen af de genererede nyhedsresumer indeholdt ‘signifikante fejl’.

Et nyt eksperiment fra BBC afslører alvorlige mangler i AI-genererede nyhedsartikler. I 51 procent af de testede historier fandt de fejl såsom unøjagtigheder, fejlcitater og misvisende fakta. Kunstig intelligens spiller en stadig større rolle i medielandskabet, hvor sprogmodeller hjælper journalister med at producere, oversætte og redigere artikler hurtigt. Men ifølge BBC ’s analyse er AI-genererede nyhedsresumer ofte fejlbehæftede.

Det er, at 'AI-assistenter kan i øjeblikket ikke stoles på til at levere præcise nyheder, og de risikerer at vildlede modtagerne,' konkluderer rapporten.BBC’s AI-team testede fire store sprogmodeller – ChatGPT-4o, Microsoft Copilot Pro, Google Gemini Standard og Perplexity. De præsenterede modellerne for 100 nyhedsrelaterede spørgsmål baseret på populære Google-søgninger fra det seneste år, som de fandt fra Google-trends. Modellerne blev bedt om at lave et nyheds-resume af de udvalgte artikler og med den bestemte instruks om at basere sig på BBC’s nyhedskilder, når det var muligt. De i alt 362 AI-genererede svar blev gennemgået af 45 BBC-journalister med ekspertise i emnerne. De vurderede svarene ud fra kriterier som nøjagtighed, upartiskhed, klarhed, kontekst og korrekt kildeangivelse.Resultatet var, at over halvdelen af svarene indeholdt ‘signifikante fejl’. I analysen advarer BBC om, at fejl kan forstærkes af AI’ens troværdighed: ‘Vi ved fra tidligere forskning, at når AI-assistenter citerer betroede medier som BBC, er publikum mere tilbøjelige til at stole på svaret – også selvom det er forkert’. Skulle man som journalist være fristet til til at uddelegere ens arbejde til en sprogmodel, så klarede Perplexity sig bedst i testen, den havde kun ‘signifikante problemer’ i 40 procent af tilfældene, mens man måske skal være mere forbeholden over for Googles Gemini, som havde det i 60 procent af tilfældene...hvorved den gamle slager:'jeg går aldrig til bal uden...' fuldstændigt, forever har ændret karakter. DRs AI-tekster bruger jeg ofte, da folk enten mumler eller speedsnakker og jeg gerne skruer meget ned for lyd. Det er så primært i livestreamning, AI kan være rigtig sjov eller udtalt rainman'et. Da jeg lidt adspredt så statsministerens nytårstale med slutteksten'Så kommer det ikke til at gå helt af helved til!' var jeg 100 på, at det måtte være rainAI eller en spøgefugl ved DR - men nej, den viste sig god nok. På min udmærkede arbejdsplads fik vi sidste år et nyt (påstået AI-drevet) tale-til-tekst system. Jeg må i al tid fremover nu stå som forfatter til en psykologjournal (som man ikke må redigere i) med følgende guldkorn om en klient, der havde været udsat for trusler:' Så længe at AI optrænes på artikler skrevet af journalister, så vil størstedelen der genereres være vrøvl og usandt. Journalisters materiale udgør en meget LILLE procentdel af, hvad der findes på nettet (WWW); resten er ytringer skrevet af fagfolk, almindelige mennesker, would wannabe forfattere (smiley) og kunstig intelligens (AI, LLM osv.).er hvad DR's AI-drevne tekstmaskine fik ud af et asteroid-bælte (i et indslag om nattehimlen). Når Musk & co. insisterer på at kolonisere Mars og afbureaukratisere den offentlige sektor, kunne der være en eller anden sammenhæng(?)Når jeg læser sådan noget her, har jeg brug for at sætte det op mod noget andet, og i dette tilfælde må det være nyhedsartikler, der ikke er lavet af et program, men af et menneske. Så hvor mange procent af de nyhedsartikler, der er skrevet af mennesker, er der fejl i? Det kan ikke være småting ud fra, hvad jeg støder på til daglig

Berita ini telah kami rangkum agar Anda dapat membacanya dengan cepat. Jika Anda tertarik dengan beritanya, Anda dapat membaca teks lengkapnya di sini. Baca lebih lajut:

ingdk /  🏆 6. in DK

AI Nyhedsartikler BBC Fejl Kunstig Intelligens Sprogmodeller

Indonesia Berita Terbaru, Indonesia Berita utama

Similar News:Anda juga dapat membaca berita serupa dengan ini yang kami kumpulkan dari sumber berita lain.

BBC-eksperiment afslører fejl i AI-genererede nyhedsartiklerBBC-eksperiment afslører fejl i AI-genererede nyhedsartiklerEt nyt eksperiment fra BBC afslører alvorlige mangler i AI-genererede nyhedsartikler. I 51 procent af de testede historier fandt forskerne fejl såsom unøjagtigheder, fejlcitater og misvisende fakta. AI-genererede nyheds resumer er ofte fejlbehæftede, og de risikerer at vildlede modtagerne. BBC’s AI-team testede fire store sprogmodeller, og resultatet var, at over halvdelen af svarene indeholdt 'signifikante fejl'.
Baca lebih lajut »

BBC-eksperiment afslører alvorlige fejl i AI-genererede nyhedsartiklerBBC-eksperiment afslører alvorlige fejl i AI-genererede nyhedsartiklerEt nyt eksperiment fra BBC afslører, at 51 procent af AI-genererede nyhedshistorier indeholder fejl som unøjagtigheder, fejlcitater og misvisende fakta. Analysen viser, at selvom AI-assistenter kan være nyttige, kan de ikke endnu stoles på til at levere præcise nyheder.
Baca lebih lajut »

BBC-eksperiment: AI-nyheder fyldt med fejlBBC-eksperiment: AI-nyheder fyldt med fejlEt nyt eksperiment fra BBC afslører alvorlige mangler i AI-genererede nyhedsartikler. 51 procent af de testede historier viste fejl som unøjagtigheder, fejlcitater og misvisende fakta. Analysen konkluderer, at AI-assistenter ikke kan stoles på til at levere præcise nyheder, og at de risikerer at vildlede modtagerne.
Baca lebih lajut »

Lægens mad-eksperiment afslører dybtgående effekter af forarbejdet madLægens mad-eksperiment afslører dybtgående effekter af forarbejdet madEn læge gennemførte et eksperiment med at spise en diæt af 80% forarbejdet mad i en måned, og resultaterne afslører en række dybtgående effekter på både vægt og hjernens funktion.
Baca lebih lajut »

Journalistens eksperiment: Kan vi undgå ultraforarbejlet mad?Journalistens eksperiment: Kan vi undgå ultraforarbejlet mad?Journalist Vivian Lamhauge kaster sig ud i et mad eksperiment inspireret af Marit Kolbys bog 'Hvad og Hvornår skal vi spise'. Bogen skildrer forandringer i madkultur gennem historien og stiller spørgsmålet, om viden om kost gør det sværere at spise sundt.
Baca lebih lajut »

Elever advarer: Så let kan skolers ChatGPT-værn snydesElever advarer: Så let kan skolers ChatGPT-værn snydesKunstig intelligens gør det nemt at fuske til eksamen, så når over 100.000 danske gymnasieelever i disse uger går til terminsprøve, overvåges hvert et museklik. Den overvågning viser sig imidlertid at være nem at omgå.
Baca lebih lajut »



Render Time: 2025-02-19 20:41:14