Verzonden op 22-10-2025 07:09
Google's NotebookLM zet je documenten om in video'sGoogle heeft zijn notitie-assistent NotebookLM een update gegeven waarmee het automatisch samenvattende video's kan genereren van je geüploade documenten. De video's worden compleet met voice-over en illustraties in zes verschillende stijlen opgeleverd. Dit is een nieuwe stap in multimodale AI, waarbij de grens tussen tekst, beeld en geluid verder vervaagt. Het past in Google's strategie om AI dieper in productiviteitstools zoals de Workspace-suite te integreren. De update opent nieuwe deuren voor interne training en kennisdeling. Complexe rapporten of handleidingen kunnen nu met één klik worden omgezet in een korte, visuele uitleg, wat de informatieoverdracht kan versnellen. De kwaliteit van de video hangt echter sterk af van de structuur en helderheid van het brondocument. Een ongestructureerde 'braindump' zal waarschijnlijk geen coherente video opleveren. |
Anthropic brengt Claude Code naar de browser met focus op veiligheidAnthropic heeft Claude Code, zijn AI-assistent voor programmeurs, nu beschikbaar gemaakt via een webinterface. Dit stelt ontwikkelaars in staat om coderingstaken direct in de cloud uit te voeren, zonder de noodzaak van een lokale terminal. Deze stap verlaagt de drempel voor het gebruik van AI-codeerassistenten aanzienlijk en positioneert Claude als een directe concurrent voor tools als GitHub Copilot Workspace. De kern van de update is een nieuwe, open-source sandboxing-aanpak: je definieert vooraf de 'speeltuin' waarbinnen de AI mag opereren, wat volgens Anthropic het aantal permissie-verzoeken met 84% vermindert. Voor je development-team betekent dit dat complexe taken, zoals het oplossen van bugs, parallel in de cloud kunnen draaien en direct een pull request genereren, zelfs gestart vanaf een tablet. Hoe ga je om met een AI-collega die nooit pauze neemt? De functie is momenteel nog een 'research preview', dus de prestaties in de praktijk moeten zich nog bewijzen. Actie-tip: Koppel een van je GitHub-repositories aan de webinterface. Geef het een afgebakende taak, zoals 'update alle dependencies in dit project en los eventuele conflicten op', en beoordeel de kwaliteit van de automatisch gegenereerde pull request. |
OpenAI scherpt regels Sora 2 aan na klachten over deepfakesNaar aanleiding van ongevraagde AI-video's van acteur Bryan Cranston heeft OpenAI aangekondigd de 'guardrails' van videomodel Sora 2 te versterken. Dit gebeurt in samenwerking met Hollywood-vakbond SAG-AFTRA en grote agentschappen. Deze stap is een directe reactie op de groeiende controverse rondom het gebruik van de beeltenis van beroemdheden, een juridisch en ethisch mijnenveld voor generatieve AI. De partijen roepen gezamenlijk op tot de invoering van de 'NO FAKES Act' om digitale replica's van artiesten beter te beschermen. Voor organisaties die generatieve video in marketing willen gebruiken, onderstreept dit het cruciale belang van portretrecht en licenties. Het 'zomaar' gebruiken van een bekend gezicht of stem wordt een steeds groter juridisch en reputatierisico. Deze samenwerking is een stap in de goede richting, maar de technische uitdaging om deepfakes van *iedereen* effectief te voorkomen, blijft enorm.
|
Onderzoek: AI-modellen krijgen 'brain rot' van slechte webcontentEen nieuwe studie van de University of Texas toont aan dat taalmodellen die getraind worden op laagwaardige, virale webcontent hun redeneervermogen, geheugen en ethische kaders significant verliezen. Dit fenomeen wordt 'brain rot' genoemd. Dit onderzoek levert hard bewijs in de discussie over de kwaliteit van trainingsdata en de impact van een 'vervuild' internet. De resultaten zijn concreet: het redeneervermogen van een model kan met ruim 17 procentpunt dalen (van 74.9% naar 57.2%) door blootstelling aan 'junk content'. Voor organisaties die eigen modellen finetunen of RAG-systemen bouwen, is dit een duidelijke waarschuwing: de kwaliteit van je inputdata is direct gekoppeld aan de betrouwbaarheid van je AI. Het principe 'garbage in, garbage out' is hier letterlijk van toepassing. Een zorgwekkende kanttekening is dat de schade lastig te herstellen is; zelfs na hertrainen op hoogwaardige data bleef een deel van de degradatie zichtbaar. |
Adobe introduceert AI Foundry voor custom, merkveilige AI-modellenAdobe lanceert AI Foundry, een nieuwe dienst waarmee grote ondernemingen op maat gemaakte generatieve AI-modellen kunnen laten trainen op hun eigen intellectueel eigendom en merkrichtlijnen. Dit is Adobe's antwoord op de groeiende vraag uit de markt naar bedrijfs-specifieke, veilige AI. Het positioneert het bedrijf als een serieuze speler in de enterprise AI-markt, door voort te bouwen op hun Firefly-modellen die getraind zijn op volledig gelicentieerde data. Voor je organisatie biedt dit een oplossing voor een kernprobleem: hoe gebruik je generatieve AI zonder je merkconsistentie te verliezen of auteursrechten te schenden? Door te trainen op eigen data, kun je beeld- en tekstgeneratie diep integreren in je marketingworkflows met minder juridisch risico. Dit is echter een premium-dienst gericht op de bovenkant van de markt; de kosten zullen voor kleinere bedrijven waarschijnlijk een drempel vormen. Actie-tip: Inventariseer je belangrijkste merk-assets (logo's, productfoto's, tone-of-voice documenten). Maak een business case om de potentiële productiviteitswinst van een custom model af te wegen tegen de kosten van een dienst als AI Foundry. |
Anthropic richt zich met speciaal Claude-platform op de wetenschapAnthropic heeft Claude for Life Sciences gelanceerd, een gespecialiseerd AI-platform voor de wetenschappelijke sector. Het platform biedt directe koppelingen naar onderzoeksportals zoals PubMed en Benchling. Dit is een strategische zet van Anthropic om een diepe verticale markt van $2 biljoen aan te boren en te concurreren met gespecialiseerde tools in de biotech en farma. Het toont de trend van algemene modellen die evolueren naar domein-specifieke oplossingen. Voor R&D-afdelingen in de levenswetenschappen kan dit de doorlooptijd van onderzoek aanzienlijk verkorten. Volgens Anthropic kunnen taken als literatuuronderzoek en het opstellen van labprotocollen, die dagen duren, worden gereduceerd tot minuten. De effectiviteit zal echter sterk afhangen van hoe goed de AI de uiterst genuanceerde wetenschappelijke data kan interpreteren zonder te hallucineren. |
ChatGPT wordt slimmer door automatisch te vergetenOpenAI heeft de geheugenfunctie van ChatGPT geüpgraded, waardoor de AI nu automatisch verouderde of minder relevante informatie 'vergeet' en prioriteit geeft aan recente context. Dit pakt een van de grootste ergernissen van de 'memory'-functie aan – het handmatig moeten cureren wat de AI onthoudt – en maakt de interactie dynamischer en relevanter voor je huidige taken. Voor professionals die ChatGPT als een langetermijn-assistent gebruiken, betekent dit minder onderhoud. De AI past zich beter aan veranderende projecten aan, zonder dat je constant oude instructies hoeft te verwijderen. Het gedraagt zich meer als een collega en minder als een statische database. Hoewel de AI nu beter kan prioriteren, blijft de controle bij de gebruiker liggen; je kunt nog steeds op ieder moment handmatig herinneringen bekijken en verwijderen. |