Anthropic, het bedrijf onder leiding van Dario Amodei, heeft onlangs een overeenkomst van 1,8 miljard gesloten met Akamai Technologies om meer rekenkracht te garanderen voor zijn AI‑modellen, in het bijzonder voor het Claude‑platform.
De overeenkomst, die zeven jaar geldig is, vertegenwoordigt het grootste contract ooit in de geschiedenis van Akamai en komt op een moment waarop de vraag naar AI‑infrastructuur groeit in een tempo dat zelfs voor de grote technologiebedrijven steeds moeilijker vol te houden is.
Summary
De groei van Claude drijft Anthropic ertoe een akkoord te sluiten met Akamai om meer rekenkracht op AI‑gebied te verkrijgen
Achter de bovenstaande operatie zit niet alleen de groei van Anthropic, maar een bredere verandering van de hele cloudmarkt.
In de afgelopen maanden is in de sector van kunstmatige intelligentie namelijk een steeds duidelijker structureel probleem naar voren gekomen.
Namelijk dat het bouwen van geavanceerde AI‑modellen enorme hoeveelheden rekenkracht, gespecialiseerde GPU’s en gedistribueerde infrastructuren vereist die in staat zijn om continue lasten te dragen.
Niet toevallig verklaarde Amodei tijdens de Code with Claude‑conferentie in San Francisco dat Anthropic een groei van 80% in de jaarlijkse omzet op jaarbasis en in het gebruik van zijn diensten zou registreren in het eerste kwartaal van 2026.
Een significant deel van deze uitbreiding zou verband houden met het gebruik van Claude voor activiteiten zoals coderen, automatisering en softwareontwikkeling ondersteund door kunstmatige intelligentie.
En juist dezezelfde groei dwingt AI‑bedrijven om nieuwe bronnen van rekenkracht te zoeken, ver voorbij de traditionele hyperscalers.
Anthropic beperkt zich namelijk niet tot de overeenkomst met Akamai: in de afgelopen maanden heeft het ook samenwerkingen gesloten met Google Cloud, Amazon Web Services, CoreWeave en zelfs met SpaceX van Elon Musk.
De boodschap die hieruit naar voren komt, is dan ook zeer duidelijk: de echte strijd rond kunstmatige intelligentie draait niet langer alleen om taalmodellen, maar om de toegang tot de infrastructuren die deze mogelijk maken.
Akamai verandert identiteit: van internet delivery naar AI‑infrastructuur
Anderzijds betekent de overeenkomst met Anthropic voor Akamai veel meer dan een eenvoudige commerciële samenwerking.
Historisch gezien stond het bedrijf vooral bekend om zijn diensten op het gebied van content delivery en cybersecurity, maar de explosie van kunstmatige intelligentie opent nieuwe strategische kansen.
Dankzij zijn wereldwijde netwerk van meer dan 4.000 points of presence, verspreid over meer dan 130 landen, beschikt Akamai over een gedecentraliseerde infrastructuur die zich goed kan aanpassen aan de behoeften van moderne AI‑workloads.
En juist dit is een van de interessantste aspecten van de operatie. In de afgelopen jaren werd de cloudmarkt vooral gedomineerd door een paar gecentraliseerde hyperscalers zoals AWS, Google Cloud en Microsoft Azure.
Toch verhoogt kunstmatige intelligentie de druk op de beschikbare middelen enorm en zijn veel bedrijven op zoek naar meer gedistribueerde en flexibele oplossingen.
In deze context lijkt Anthropic te hebben begrepen dat het zich op de lange termijn niet voldoende uitsluitend op de grote traditionele providers kan verlaten.
Niet toevallig reageerden de investeerders enthousiast op het nieuws.
Na de aankondiging steeg het aandeel Akamai met ongeveer 28%, een duidelijk teken van hoe de markt kunstmatige intelligentie ziet als een kans op radicale transformatie voor veel technologiebedrijven.
Volgens ramingen van analisten zou het contract uiteindelijk ongeveer 6% van de jaarlijkse omzet van Akamai kunnen vertegenwoordigen zodra het volledig operationeel is, met de eerste economische effecten die tegen het einde van 2026 worden verwacht.
Deze evolutie laat ook zien hoe de AI‑sector de technologische waardeketen opnieuw vormgeeft. Niet alleen de bedrijven die taalmodellen ontwikkelen profiteren, maar ook alle spelers die infrastructuur, energie, datacenters en connectiviteit kunnen leveren.
Het probleem is echter dat deze ‘race’ steeds duurder wordt. Het trainen en onderhouden van geavanceerde AI‑modellen vereist voortdurende investeringen van miljarden, waardoor de sector steeds meer geconcentreerd raakt in de handen van een paar grote bedrijven met toegang tot enorme kapitaalbronnen.
De echte uitdaging van AI is de infrastructuur, niet alleen de software
De overeenkomst tussen Anthropic en Akamai vertelt een werkelijkheid die in het publieke debat over kunstmatige intelligentie vaak wordt onderschat: de belangrijkste beperking van moderne AI is niet langer alleen algoritmisch, maar infrastructureel.
In de afgelopen jaren concentreerde de sector zich vooral op de concurrentie tussen chatbots, taalmodellen en geavanceerde functionaliteiten.
Vandaag komt er echter een tweede probleem naar voren, minder zichtbaar maar misschien nog belangrijker: dat van de toegang tot rekenkracht. AI‑bedrijven verbruiken namelijk enorme hoeveelheden energie, GPU’s en bandbreedte.
Elke nieuwe generatie modellen vereist meer middelen dan de vorige, wat een investeringsspiraal creëert die het risico inhoudt dat steeds meer alleen de groepen met de grootste financiële slagkracht worden bevoordeeld.
En Anthropic is niet het enige bedrijf dat zich in deze situatie bevindt. Ook OpenAI, Google en Meta investeren miljarden om zich chips, datacenters en cloudinfrastructuren te verzekeren die voldoende zijn om de groei van generatieve AI te ondersteunen.
Dit scenario roept ook kritische vragen op over de toekomst van de sector. Als kunstmatige intelligentie steeds meer afhankelijk wordt van gigantische infrastructuurinvesteringen, is het risico dat de markt geleidelijk minder open en meer gecentraliseerd wordt.
Bovendien kan de druk op de rekenmiddelen ook gevolgen hebben voor de energiekosten en de milieuduurzaamheid.
De uitbreiding van AI vereist namelijk enorme hoeveelheden elektriciteit en geavanceerde koelsystemen, waardoor datacenters veranderen in steeds belangrijkere strategische assets.

