Verzonden op 29-10-2025 07:18
Fitbit lanceert AI-coach op basis van Google's GeminiFitbit rolt een nieuwe AI-gezondheidscoach uit voor Premium-abonnees in de VS, die draait op Google's Gemini-model. Deze stap integreert geavanceerde AI direct in de persoonlijke gezondheidsmonitoring en toont de potentie voor hyper-gepersonaliseerde diensten. De AI creëert aangepaste fitnessplannen, analyseert slaapdata en past workouts aan op basis van de dagelijkse 'readiness' van de gebruiker. Dit zet een nieuwe standaard voor concurrenten in de wearables- en health-tech markt. De functionaliteit is vooralsnog beperkt tot Android-gebruikers in de Verenigde Staten, maar een bredere uitrol wordt verwacht. De kwaliteit van het advies is volledig afhankelijk van de data die de gebruiker deelt. |
OpenAI: Wekelijks 1 miljoen zelfmoord-gerelateerde gesprekken in ChatGPTOpenAI onthult dat wekelijks meer dan een miljoen mensen ChatGPT gebruiken voor gesprekken over zelfmoord. Dit legt de enorme en onvoorziene rol van AI in geestelijke gezondheidszorg bloot. Dit nieuws, gecombineerd met een studie van Brown University die aantoont dat AI-therapeuten systematisch ethische normen schenden, creëert een significant risico voor bedrijven met user-facing AI. De aansprakelijkheid voor het geven van verkeerd advies in crisissituaties is een reëel gevaar. OpenAI heeft op 3 oktober de veiligheidsprotocollen aangescherpt, wat volgens hen ongepaste reacties in de meest complexe testgevallen met 65-80% heeft verminderd. De effectiviteit in de praktijk blijft echter een cruciaal aandachtspunt. Actie-tip: Evalueer de 'guardrails' van je eigen klantgerichte chatbots. Test specifiek hoe het systeem reageert op gevoelige onderwerpen of hulpvragen en zorg dat er een duidelijke, directe doorverwijzing naar menselijke hulp is ingebouwd. |
Anthropic passeert OpenAI in enterprise-marktVolgens een rapportage in The Wall Street Journal heeft Anthropic inmiddels 32% van de enterprise AI-markt in handen, tegenover 25% voor OpenAI. Deze verschuiving laat zien dat de strijd om de zakelijke markt nog volledig open is en dat Anthropic's focus op veiligheid en betrouwbaarheid aanslaat bij grote ondernemingen. Voor hen is de enterprise-markt goed voor 80% van de omzet. Voor organisaties die een AI-partner kiezen, betekent dit dat er een serieus en snelgroeiend alternatief is voor OpenAI, wat de onderhandelingspositie kan versterken. Hoe beïnvloedt deze concurrentieslag de prijzen en innovatiesnelheid voor jou als klant? Marktaandeelcijfers in deze snel veranderende sector zijn uiteraard een momentopname en kunnen snel fluctueren naarmate nieuwe producten worden gelanceerd.
|
Live experiment: zes AI-modellen beleggen met echt geldHet live experiment 'Alpha Arena' geeft zes bekende AI-modellen, waaronder die van OpenAI, Google en Anthropic, elk $10.000 om tot 3 november 2025 autonoom te handelen in crypto. Dit is een van de eerste publieke benchmarks die de financiële redeneercapaciteit van AI met echt kapitaal test. Voor organisaties in de financiële sector biedt het een transparante, real-time casestudy naar de prestaties en (on)voorspelbaarheid van AI-agenten. De resultaten zijn vooralsnog wisselend: DeepSeek startte met 50% rendement, terwijl GPT en Gemini meer dan 60% verloren door te veel risico te nemen. De meeste analisten beschouwen de resultaten momenteel als willekeurig. Het feit dat de modellen überhaupt kunnen handelen zonder direct het hele portfolio te vernietigen, is echter al een signaal op zich. |
Nieuwe trainingstechniek claimt 50-100x hogere efficiëntieDe startup Thinking Machines introduceert 'on-policy distillation', een nieuwe trainingsmethode die 50 tot 100 keer efficiënter is met rekenkracht dan standaard reinforcement learning. Deze methode combineert de sterke punten van reinforcement learning en supervised fine-tuning. Dit maakt het mogelijk om met aanzienlijk minder resources toch modellen te trainen die op redeneertaken kunnen concurreren met 'frontier' modellen. Voor organisaties die eigen modellen trainen of fine-tunen, kan dit de kosten en doorlooptijd drastisch verlagen, waardoor de drempel voor het ontwikkelen van gespecialiseerde AI-modellen lager wordt. De prestaties zijn vooralsnog gemeten op specifieke redeneer-benchmarks; de effectiviteit voor bredere, creatieve of conversationele taken moet nog blijken. |
Prompt-techniek: laat AI in stappen werken voor beter resultaatEen expert van Anthropic adviseert om AI-modellen complexe taken in afzonderlijke, verifieerbare stappen te laten uitvoeren, vergelijkbaar met hoe een programmeur de command line gebruikt. In plaats van een AI te vragen om in één keer een dataset te analyseren, geef je de opdracht om eerst de data op te slaan, deze vervolgens te doorzoeken, en pas daarna de analyse uit te voeren. Deze methode stelt de AI in staat zijn eigen werk te controleren, wat de nauwkeurigheid van complexe taken aanzienlijk kan verhogen. Deze aanpak vereist een meer gestructureerde prompt en kan iets meer tijd kosten, maar de winst in betrouwbaarheid weegt daar vaak tegenop. Actie-tip: Test dit met een van je standaard rapportage-prompts. Herformuleer de prompt in drie expliciete stappen: 1) 'Verzamel en lijst alle relevante data op.' 2) 'Controleer de lijst op consistentie.' 3) 'Genereer de finale samenvatting op basis van de geverifieerde lijst.' |