Verzonden op 05-11-2025 07:08
Google's NotebookLM verhoogt contextlimiet naar 1 miljoen tokensGoogle's research-assistent NotebookLM kan nu documenten met een context van 1 miljoen tokens verwerken, dankzij een upgrade naar de volledige capaciteit van de Gemini-modellen. Tegelijkertijd maakte CEO Sundar Pichai bekend dat Gemini maandelijks door meer dan 650 miljoen mensen wordt gebruikt. De verhoogde contextlimiet maakt NotebookLM een krachtig hulpmiddel voor het analyseren van zeer lange documenten, zoals jaarverslagen, academische papers of complete codebases. Het enorme gebruikersaantal van Gemini geeft aan hoe snel de adoptie van Google's AI-diensten gaat, wat het een serieus alternatief voor het OpenAI-ecosysteem maakt. Een grotere context is niet altijd een garantie voor betere resultaten. Modellen hebben soms nog steeds moeite om specifieke details te 'vinden' in het midden van een zeer lange tekst.
|
OpenAI sluit megadeal van $38 miljard met AWS voor rekenkrachtOpenAI heeft een zevenjarige overeenkomst van $38 miljard gesloten met Amazon Web Services (AWS) voor de levering van rekenkracht. Hiermee diversifieert de AI-ontwikkelaar zijn infrastructuur en wordt het minder afhankelijk van zijn hoofdpartner Microsoft. De deal geeft OpenAI toegang tot honderdduizenden Nvidia GPU's in AWS-datacenters, die eind 2026 volledig operationeel moeten zijn. Voor organisaties die op het OpenAI-ecosysteem bouwen, betekent deze spreiding van leveranciers op de lange termijn meer robuustheid en minder risico op een 'single point of failure'. Het onderstreept de immense, en nog steeds groeiende, kapitaalbehoefte voor het trainen van de volgende generatie modellen. De nuchtere kanttekening? De echte beperkende factor in de AI-race verschuift van de beschikbaarheid van chips naar de beschikbaarheid van stroom en fysieke datacenterruimte. Dit is een signaal dat de schaalvergroting tegen fysieke grenzen aanloopt.
|
Microsoft investeert miljarden in externe AI-infrastructuurIn navolging van de bredere trend heeft Microsoft een reeks miljardendeals gesloten om zijn AI-rekenkracht buiten de eigen datacenters uit te breiden. Het bedrijf sluit een overeenkomst met AI-cloud startup Lambda en investeert daarnaast $15,2 miljard in de Verenigde Arabische Emiraten. Dit laat zien dat zelfs de grootste cloud-spelers de vraag naar AI-compute niet alleen aankunnen. Voor de markt betekent dit een opkomst van gespecialiseerde 'GPU-clouds' die de gaten vullen voor de hyperscalers. Het is een teken dat de hele keten, van chip tot cloud, op maximale capaciteit draait. De strategie om extern in te kopen is vooral een pragmatische oplossing voor de lange doorlooptijden en hoge kosten van het bouwen van eigen, gespecialiseerde AI-datacenters. |
Apple schakelt Google Gemini in voor vernieuwde SiriApple gaat naar verluidt een aangepaste versie van Google's Gemini-model gebruiken om de volgende generatie van zijn spraakassistent Siri aan te drijven. De verwachte lancering van de vernieuwde Siri staat gepland voor maart 2026. Deze opmerkelijke samenwerking tussen twee rivalen toont aan dat de ontwikkeling van geavanceerde AI-modellen zo complex is dat zelfs Apple externe expertise inkoopt. Voor gebruikers kan dit eindelijk de upgrade betekenen die Siri transformeert van een simpele opdrachtentool naar een intelligente assistent. Hoewel de technologie op Apple's eigen 'Private Cloud Compute' zal draaien om de privacy te waarborgen, creëert het een opvallende afhankelijkheid van een van zijn grootste concurrenten voor een kernfunctie van zijn ecosysteem.
|
Google haalt Gemma-model offline na valse beschuldiging van senatorGoogle heeft zijn Gemma AI-model uit de publiek toegankelijke AI Studio verwijderd nadat het een Amerikaanse senator ten onrechte beschuldigde van seksueel wangedrag. Het model genereerde een compleet verzonnen verhaal, inclusief fictieve nieuwsbronnen. Dit incident is een harde realiteitscheck over de risico's van 'hallucinaties' in AI. Voor organisaties die overwegen om open AI-modellen in te zetten voor klantgerichte toepassingen, onderstreept dit de noodzaak van strenge controlemechanismen en menselijk toezicht om reputatieschade en juridische problemen te voorkomen. Google benadrukte dat Gemma bedoeld was voor ontwikkelaars, niet voor het beantwoorden van feitelijke vragen. Dit toont de spagaat waar AI-bouwers in zitten: modellen openstellen voor innovatie versus het risico op onbedoeld en schadelijk gebruik. Actie-tip: Test de betrouwbaarheid van je eigen chatbot-implementatie. Voer een reeks van tien feitelijke, maar ook gevoelige en potentieel controversiële vragen over je bedrijf of de sector in. Analyseer waar het model feitelijk correct is en waar het begint te 'hallucineren'. |
Coca-Cola zet door met AI-kerstcommercials ondanks eerdere kritiekCoca-Cola heeft zijn kerstcampagne voor 2025 gelanceerd met volledig door AI gegenereerde commercials. Het bedrijf zet hiermee bewust door met de technologie, een jaar nadat een eerdere AI-poging op kritiek stuitte vanuit de creatieve sector. Voor marketingafdelingen is dit een interessant praktijkvoorbeeld. De productietijd werd gereduceerd van circa 12 maanden naar slechts 30 dagen, waarbij één studio maar vijf specialisten nodig had. Dit illustreert de potentie van AI om de snelheid en kosten van contentproductie drastisch te veranderen. De vraag is waar de balans ligt. Terwijl grote merken de toon zetten voor bredere adoptie in de reclame-industrie, blijft de discussie over de impact op creatieve banen en de authenticiteit van het werk relevant. |
ChatGPT introduceert 'Credits' voor extra gebruik van geavanceerde modellenOpenAI introduceert een nieuw betaalmodel in ChatGPT: gebruikers kunnen nu naast hun abonnement 'Credits' kopen voor extra gebruik van de meest geavanceerde modellen zoals Codex en Sora. Een pakket van 1000 credits kost $40. Dit is een stap van een vast abonnement naar een hybride 'pay-as-you-go'-model, specifiek voor de meest rekenintensieve taken. Voor organisaties die zwaar leunen op AI voor code- of videogeneratie, biedt dit flexibiliteit, maar het vereist ook actiever beheer van de kosten. Het stelt OpenAI in staat de enorme kosten van deze modellen gerichter door te belasten. De nieuwe structuur maakt het budgetteren voor AI-gebruik complexer. Waar een vast bedrag per gebruiker voorspelbaar was, worden de kosten nu variabel en afhankelijk van de intensiteit van het gebruik. Actie-tip: Als je team intensief gebruikmaakt van functies als Codex, analyseer dan het verbruik van de afgelopen maand. Maak een schatting van hoeveel credits je nodig zou hebben onder het nieuwe model en bepaal of je huidige abonnementsvorm nog kostenefficiënt is.
|