
Er zijn twee grote bedrijven die overal in de media te zien zijn en waarvan de enige producten zogenaamde ‘kunstmatige intelligentie’-modellen zijn.
Het ene is OpenAI, onder leiding van Sam Altman, en het andere is Anthropic, onder leiding van Dario Amodei. schrijft Bernhard.
De producten die deze jongens aanprijzen, zijn simulatiemachines die gebaseerd zijn op grote taalmodellen.
Je kunt die machines vragen stellen. De modellen herkennen patronen in die vragen en vergelijken die met patronen die ze tijdens hun training hebben geleerd. Vervolgens simuleren ze echte antwoorden door de meest waarschijnlijke woorden aan de vorige toe te voegen. Het zijn probabilistische taalvoorspellingshulpmiddelen.
Deze simulatiemodellen zijn enorm, gebruiken veel door mensen afgeleid trainingsmateriaal en kosten veel rekenkracht om te draaien. Vaak lijken hun resultaten behoorlijk knap. Varianten ervan kunnen tekst, afbeeldingen en zelfs films maken. Maar al deze resultaten zijn simulaties. Het is niet het echte werk.
Deze modellen zijn inherent gebrekkig. Die gebrekkigheid, die vaak resulteert in zogenaamde ‘hallucinaties’, is niet te corrigeren. Het maakt deel uit van het algoritme. Het is een echt, wiskundig bewezen kenmerk van dit soort modellen.
Ik heb zojuist aan het AI-systeem van DuckDuckGo, mijn standaardzoekmachine, gevraagd: “Hoeveel ‘p’s zitten er in strawberry?”. Het model gaf het juiste antwoord. Er zitten er geen.

Vervolgens vroeg ik: “Hoeveel ‘e’s zitten er in strawberry?”. Het model gaf een onjuist antwoord. Het volledige antwoord luidde: “Samenvattend: ‘strawberry’ bevat nul ‘e’s.” Het somt zelfs de letters op die in het woord ‘strawberry’ voorkomen en stelt dat het aantal ‘e’s daarin nul is.

Niet alleen het resultaat, maar ook de gesimuleerde ‘redenering’, hier de lettertelling door het model, is fout.
Waarom iemand deze algemene Large Language Models met wat dan ook zou vertrouwen, is mij een raadsel.
De modellen die beide – OpenAI en Anthropic – momenteel aanbieden, zijn gebrekkig maar enorm duur in het gebruik. Gezien hun rudimentaire capaciteiten is niemand bereid om veel geld te betalen om ze te gebruiken. Zowel OpenAI als Anthropic verspillen geld. Ze bieden toegang tot en het gebruik van hun modellen aan voor prijzen die tot tien keer lager liggen dan wat het kost om ze te laten draaien.
OpenAI en Anthropic hebben tientallen miljarden nodig om hun modellen verder te ontwikkelen en te laten draaien. (Ook Altman en Amodei willen rijk worden.) Ze hopen dat deze modellen op een dag, op de een of andere manier, beter zullen presteren en winst zullen genereren. Maar om dat misschien te bereiken, zijn er nog vele tientallen miljarden nodig. Ze proberen deze bijeen te brengen door de vermeende toekomstige waarde van hun producten te hypen.
De bewering van OpenAI/Altman is dat er binnenkort een of andere vorm van Algemene Kunstmatige Intelligentie (ongedefinieerd) uit hun model zal voortkomen en alle problemen van de wereld zal oplossen. Degenen die er aandelen van bezitten, zullen rijk worden.
De marketingstrategie van Anthropic/Amodei is gebaseerd op het bang maken van mensen: “AGI zal de macht overnemen en de wereld regeren en je hebt ons en onze modellen nodig om je daartegen te beschermen”.
Beide beweringen zijn natuurlijk volslagen onzin.
Maar de media blazen dit soort dingen graag op en sommige zogenaamde ‘journalisten’ zijn dol op deze verhalen.
Anthropic kwam onlangs met een nieuw model dat naar verluidt groter en beter is dan alle andere. Maar Anthropic heeft ook geen geld meer. Rekencapaciteit is schaars geworden en het kan het zich niet veroorloven om het publiek het model te laten gebruiken.
Om het niet-uitbrengen van het zogenaamd spectaculaire nieuwe ‘Mythos’-model te rechtvaardigen, heeft Anthropic weer een schrikverhaal verzonnen. Mythos, zo beweert het, is goed in hacken:
Anthropic’s New A.I. Model Sets Off Global Alarms (gearchiveerd) – NY Times
Mythos heeft wereldwijd noodmaatregelen van centrale banken en inlichtingendiensten uitgelokt, nu Anthropic beslist wie toegang krijgt tot het krachtige model.
Toen Anthropic deze maand aan de wereld vertelde dat het een kunstmatig intelligentiemodel had gebouwd dat zo krachtig was dat het te gevaarlijk was om op grote schaal vrij te geven, noemde het bedrijf 11 organisaties als partners om te helpen bij het opzetten van een verdediging.
Ze waren allemaal afkomstig uit de Verenigde Staten.
…
Wereldleiders hebben moeite om de omvang van de veiligheidsrisico’s in te schatten en te bepalen hoe deze kunnen worden aangepakt, nu Anthropic Mythos buiten de Verenigde Staten alleen met Groot-Brittannië deelt. De gouverneur van de Bank of England waarschuwde publiekelijk dat Anthropic mogelijk een manier heeft gevonden om “de hele wereld van cyberrisico’s open te breken”. De Europese Centrale Bank begon in stilte banken te ondervragen over hun verdedigingsmaatregelen. De Canadese minister van Financiën vergeleek de dreiging met de afsluiting van de Straat van Hormuz.
…
Anthropic, gevestigd in San Francisco, vertelde The New York Times dat het de toegang tot Mythos beperkt hield vanwege veiligheids- en beveiligingsbezwaren.
…
Welnu, de Financial Times meldt dat er andere, ernstigere redenen zijn waarom Anthropic de toegang tot zijn nieuwste model beperkt:
Anthropic heeft gezegd dat het zal wachten met een bredere release van het model totdat het de zekerheid heeft dat het veilig is en niet kan worden misbruikt door kwaadwillenden. Het bedrijf beschikt ook over een beperkte hoeveelheid rekenkracht en heeft de afgelopen weken te maken gehad met storingen.
Meerdere mensen met kennis van zaken suggereerden dat Anthropic afzag van een bredere release totdat het het model op betrouwbare wijze aan klanten kon aanbieden.
Anthropic kan mensen zijn nieuwe model niet laten gebruiken omdat het de benodigde capaciteit en/of het geld ontbreekt om het gebruik ervan te faciliteren.
Dit is de reden waarom ons een schrikverhaal wordt voorgeschoteld en ons wordt verteld over de noodzaak van beperkte toegang.
Het Mythos-model zou bijzonder krachtig zijn in het inbreken op computersystemen. De NY Times beweert:
Het [Britse] A.I. Security Institute, een door de overheid gesteunde organisatie, heeft Mythos getest en vorige week een onafhankelijke evaluatie gepubliceerd, waarin wordt bevestigd dat het complexe cyberaanvallen kon uitvoeren die geen enkel eerder AI-model had voltooid.
In basishackingtests presteerde Mythos inderdaad een klein beetje beter dan andere modellen. Maar het A.I. Security Institute constateerde ook dat de algemene cyberaanvalcapaciteiten van al deze modellen, inclusief Mythos, slechts rudimentair zijn:
Het succes van Mythos Preview op één cyberrange geeft aan dat het in ieder geval in staat is om autonoom kleine, zwak beveiligde en kwetsbare bedrijfssystemen aan te vallen waar toegang tot een netwerk is verkregen. Onze ranges vertonen echter belangrijke verschillen met omgevingen in de echte wereld, waardoor ze gemakkelijkere doelwitten zijn. Ze missen beveiligingsfuncties die vaak wel aanwezig zijn, zoals actieve verdedigers en defensieve tools. Er zijn ook geen sancties voor het model voor het ondernemen van acties die beveiligingswaarschuwingen zouden activeren.
Anders gezegd: deze modellen kunnen op amateurniveau hacken ALS men ze volledige open toegang tot het netwerk geeft EN alle verdedigingsmechanismen uitschakelt. Dat is natuurlijk niet iets wat een verstandige netwerkbeheerder zou doen.
Andere onderzoekers ontdekten ook dat het zogenaamd angstaanjagende Mythos-model niet kan doen wat er wordt beweerd:
Anthropic’s superenge bugjachtmodel Mythos lijkt een non-issue te worden – Register
Anthropic beweerde bij de aankondiging van het nieuwe model dat Mythos “duizenden extra kwetsbaarheden met een hoge en kritieke ernst” had geïdentificeerd. VulnCheck-onderzoeker Patrick Garrity schatte het aantal vorige week echter op misschien 40. Of misschien helemaal geen.
Een andere ingenieur, Devansh, doorzocht de Mythos-gerelateerde CVE-adviezen en de exploitcode van Anthropic, het transcript van 44 prompts en de 244 pagina’s tellende systeemkaart, samen met de partnerovereenkomsten van Glasswing en de verslagen van het red-team. Hij keek ook naar de replicatiestudie van Aisle, waarin de door Mythos getoonde kwetsbaarheden werden getest op kleine, goedkope modellen met open gewichten, en ontdekte dat deze grotendeels dezelfde analyse opleverden.
Devansh concludeerde uiteindelijk dat, hoewel de gevonden bugs echt zijn, het ware Mythos-verhaal er een is van “desinformatie en hype”.
Tot zover de waarheidsgetrouwheid van het hierboven gelinkte hype-artikel in de NY Times. Dat artikel beweerde ook dat de aankondiging van het ‘Mythos’-model een teken is van Amerikaanse superioriteit:
“Voor China is dit volgens mij de tweede wake-up call na ChatGPT,” zei Matt Sheehan, senior fellow bij het Carnegie Endowment for International Peace. Hij voegde eraan toe dat het Amerikaanse beleid om te voorkomen dat China de meest geavanceerde halfgeleiders voor het bouwen van geavanceerde AI-systemen in handen krijgt, helpt om de voorsprong van de VS te vergroten.
Ahhh – die “meest geavanceerde halfgeleiders” … alsof China die nodig zou hebben …
DeepSeek geeft preview van nieuw AI-model aangepast voor Huawei-chips – Reuters
PEKING, 24 april (Reuters) – DeepSeek, de Chinese start-up wiens goedkope AI-model vorig jaar de wereld versteld deed staan, heeft vrijdag een preview gelanceerd van een langverwacht nieuw model dat is aangepast voor Huawei-chiptechnologie, waarmee China’s groeiende zelfvoorziening in de sector wordt onderstreept.
De Pro-versie van het nieuwe model presteert beter dan andere open-source modellen in benchmarks voor wereldkennis en blijft alleen achter op Google’s closed-source Gemini-Pro-3.1, aldus DeepSeek.
De nauwe samenwerking met Huawei aan het nieuwe model, de V4, staat in contrast met DeepSeeks eerdere afhankelijkheid van Nvidia-chips.
Binnen bepaalde welomschreven omstandigheden en use-cases zijn kunstmatige-intelligentie-modellen, waaronder LLM’s, kostenefficiënt en nuttig.
Maar de huidige valse hype rond LLM-systemen, en het (mis)gebruik ervan om ‘slop’ te creëren, zal de nuttigere toepassingen waarschijnlijk vertragen.
Vind je het belangrijk dat er nog onafhankelijke berichtgeving bestaat die niet wordt gestuurd door grote belangen? Met jouw steun kunnen we blijven schrijven en onderzoeken. Klik hieronder en draag bij aan het voortbestaan van Frontnieuws.
Copyright © 2026 vertaling door Frontnieuws. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.
Chinese GPU’s overtreffen Nvidia-chips met bijna het tienvoudige in supercomputersimulatie: een game-changer in tech-soevereiniteit
Volg Frontnieuws op 𝕏 Volg Frontnieuws op Telegram
Lees meer over:
Source: https://www.frontnieuws.com/die-enge-ai-modellen-zijn-nog-steeds-slechts-prullaria/
.
