• Waarom ChatGPT nooit écht kan weten wat een bloem is.

    Je kunt een bloem beschrijven in duizend woorden, maar daarmee weet je nog niet hoe die ruikt. Dat is precies de reden waarom een AI-tool als ChatGPT, hoe slim ook, het concept van een bloem nooit zal begrijpen zoals een mens dat doet.

    Dat blijkt uit een nieuwe studie van de Ohio State University, gepubliceerd in vakblad Nature Human Behaviour. Volgens hoofdonderzoeker Qihui Xu kunnen grote taalmodellen zoals GPT-4 wel woorden verwerken, maar missen ze een essentieel ingrediënt: zintuiglijke ervaring.

    “Een groot taalmodel kan geen roos ruiken, de bloemblaadjes van een madeliefje voelen of door een veld vol wilde bloemen wandelen”, zegt Xu. “Zonder die zintuiglijke en motorische ervaringen kan het nooit volledig begrijpen wat een bloem echt is.” En dit geldt niet alleen voor bloemen, maar voor talloze menselijke begrippen die geworteld zijn in wat we zien, ruiken, proeven en voelen.

    Voor het onderzoek vergeleek Xu samen met haar team de manier waarop mensen en vier geavanceerde AI-modellen (GPT-3.5, GPT-4 van OpenAI en PaLM, Gemini van Google) 4442 woorden representeren. Van ‘bloem’ en ‘hoef’ tot abstractere begrippen als ‘humoristisch’ of ‘schommel’.

    De wetenschappers zetten twee soorten metingen in om tot hun conclusies te komen. De eerste, de Glasgow Norms, vroeg deelnemers hoe ‘beeldend’, ‘emotioneel opwekkend’ of ‘concreet’ een woord is. De tweede, de Lancaster Norms, keek naar hoeveel zintuiglijke (geur, zicht, aanraking) en lichamelijke ervaringen (bijvoorbeeld via mond of handen) verbonden zijn aan een concept. Het doel hiervan is om te ontdekken in hoeverre AI en de mens dezelfde betekenis toekennen aan woorden en welke zintuiglijke lagen daarbij een rol spelen.

    Uit het onderzoek blijkt dat Large Language Models (LLM’s) best goed scoren op begrippen die weinig te maken hebben met zintuigen of lichamelijke ervaringen. Denk aan abstracte termen zoals ‘idee’, ‘structuur’ of ‘humor’. Maar zodra een woord gekoppeld is aan wat we kunnen zien, ruiken of voelen, valt AI door de mand. “Van het intense aroma van een bloem, de zijdezachte aanraking van bloemblaadjes tot de vreugde die het oproept… voor mensen vormen al deze ervaringen samen het begrip ‘bloem’”, schrijven de onderzoekers. AI is simpelweg niet in staat om dit totaalplaatje te vormen met alleen taal.

    Zelfs de meest geavanceerde modellen halen hun kennis uit een vrijwel eindeloze hoeveelheid tekst. Deze database is gevuld met veel meer woorden dan een mens ooit in zijn leven zal lezen en toch mist een LLM nog steeds het gevoel voor wat iets werkelijk is.

    Wel viel op dat taalmodellen die naast tekst ook op beeld zijn getraind (zoals Gemini), iets beter scoren op visueel gerelateerde begrippen. Maar ook dat is niet genoeg. “Alleen taal is onvoldoende om de rijke menselijke betekeniswereld te vangen”, zegt Xu. Voor echte conceptuele representatie is meer nodig: beweging, aanraking, geur en misschien zelfs smaak.

    Toch is het niet uitgesloten dat AI in de komende jaren een completer begrip gaat ontwikkelen. Xu verwacht dat toekomstige taalmodellen beter worden in het benaderen van menselijke begrippen, vooral als ze worden uitgerust met sensoren en fysieke mogelijkheden. “Zodra AI kan voelen, ruiken en bewegen in de echte wereld, zal het ons begrip van concepten beter kunnen benaderen”, besluit de Amerikaanse onderzoeker.
    Waarom ChatGPT nooit écht kan weten wat een bloem is. Je kunt een bloem beschrijven in duizend woorden, maar daarmee weet je nog niet hoe die ruikt. Dat is precies de reden waarom een AI-tool als ChatGPT, hoe slim ook, het concept van een bloem nooit zal begrijpen zoals een mens dat doet. Dat blijkt uit een nieuwe studie van de Ohio State University, gepubliceerd in vakblad Nature Human Behaviour. Volgens hoofdonderzoeker Qihui Xu kunnen grote taalmodellen zoals GPT-4 wel woorden verwerken, maar missen ze een essentieel ingrediënt: zintuiglijke ervaring. “Een groot taalmodel kan geen roos ruiken, de bloemblaadjes van een madeliefje voelen of door een veld vol wilde bloemen wandelen”, zegt Xu. “Zonder die zintuiglijke en motorische ervaringen kan het nooit volledig begrijpen wat een bloem echt is.” En dit geldt niet alleen voor bloemen, maar voor talloze menselijke begrippen die geworteld zijn in wat we zien, ruiken, proeven en voelen. Voor het onderzoek vergeleek Xu samen met haar team de manier waarop mensen en vier geavanceerde AI-modellen (GPT-3.5, GPT-4 van OpenAI en PaLM, Gemini van Google) 4442 woorden representeren. Van ‘bloem’ en ‘hoef’ tot abstractere begrippen als ‘humoristisch’ of ‘schommel’. De wetenschappers zetten twee soorten metingen in om tot hun conclusies te komen. De eerste, de Glasgow Norms, vroeg deelnemers hoe ‘beeldend’, ‘emotioneel opwekkend’ of ‘concreet’ een woord is. De tweede, de Lancaster Norms, keek naar hoeveel zintuiglijke (geur, zicht, aanraking) en lichamelijke ervaringen (bijvoorbeeld via mond of handen) verbonden zijn aan een concept. Het doel hiervan is om te ontdekken in hoeverre AI en de mens dezelfde betekenis toekennen aan woorden en welke zintuiglijke lagen daarbij een rol spelen. Uit het onderzoek blijkt dat Large Language Models (LLM’s) best goed scoren op begrippen die weinig te maken hebben met zintuigen of lichamelijke ervaringen. Denk aan abstracte termen zoals ‘idee’, ‘structuur’ of ‘humor’. Maar zodra een woord gekoppeld is aan wat we kunnen zien, ruiken of voelen, valt AI door de mand. “Van het intense aroma van een bloem, de zijdezachte aanraking van bloemblaadjes tot de vreugde die het oproept… voor mensen vormen al deze ervaringen samen het begrip ‘bloem’”, schrijven de onderzoekers. AI is simpelweg niet in staat om dit totaalplaatje te vormen met alleen taal. Zelfs de meest geavanceerde modellen halen hun kennis uit een vrijwel eindeloze hoeveelheid tekst. Deze database is gevuld met veel meer woorden dan een mens ooit in zijn leven zal lezen en toch mist een LLM nog steeds het gevoel voor wat iets werkelijk is. Wel viel op dat taalmodellen die naast tekst ook op beeld zijn getraind (zoals Gemini), iets beter scoren op visueel gerelateerde begrippen. Maar ook dat is niet genoeg. “Alleen taal is onvoldoende om de rijke menselijke betekeniswereld te vangen”, zegt Xu. Voor echte conceptuele representatie is meer nodig: beweging, aanraking, geur en misschien zelfs smaak. Toch is het niet uitgesloten dat AI in de komende jaren een completer begrip gaat ontwikkelen. Xu verwacht dat toekomstige taalmodellen beter worden in het benaderen van menselijke begrippen, vooral als ze worden uitgerust met sensoren en fysieke mogelijkheden. “Zodra AI kan voelen, ruiken en bewegen in de echte wereld, zal het ons begrip van concepten beter kunnen benaderen”, besluit de Amerikaanse onderzoeker.
    0 Kommentare 0 Geteilt 84 Ansichten
  • De 'DEEP-FAKES' zijn nu échter dan óóit.

    Google laceerde zijn nieuwste AI-model, VEO3

    Met slechts een korte prompt kun je nu hyper-realistische AI-video's creëeren.

    Veo 3 is Google's nieuwste en meest geavanceerde AI-model voor het genereren van video's. Het is ontwikkeld door Google DeepMind en werd aangekondigd tijdens Google I/O 2025. Veo 3 vertegenwoordigt een significante doorbraak in AI-videogeneratie, vooral door de toevoeging van geïntegreerde audio.

    Hier zijn de belangrijkste kenmerken en mogelijkheden van Veo 3:

    * Video generatie van hoge kwaliteit: Veo 3 kan video's genereren op basis van tekst- en afbeeldingsprompts, met verbeterde kwaliteit en realisme.
    * Geïntegreerde audio: Dit is een van de meest baanbrekende functies. Veo 3 kan nu video's genereren met native audio, inclusief:
    * Spraak: zoals dialoog en voice-overs.
    * Geluidseffecten: relevante achtergrondgeluiden en geluidseffecten.
    * Muziek.
    * Lip-synchronisatie: Het model kan zelfs lip-synchronisatie uitvoeren, wat de realistische weergave van sprekende personages aanzienlijk verbetert.
    * Begrip van natuurwetten: Veo 3 is beter in staat om natuurwetten en fysica te simuleren, wat resulteert in realistischere bewegingen en interacties binnen de video.
    * Gedetailleerde prompts: Het model is uitstekend in het begrijpen van complexe promptdetails en kan korte verhalen omzetten in levendige videoclips.
    * Cameracontrole: Vooral in combinatie met "Flow" (zie hieronder), biedt Veo 3 geavanceerde cameramanipulatiefuncties, zoals pannen, zoomen en het aanpassen van camerahoeken, waardoor filmische opnamen mogelijk zijn.
    * Objectmanipulatie: Gebruikers kunnen objecten toevoegen of verwijderen binnen een videoscène, waarbij de AI de schaal, schaduwen en interacties met de omgeving begrijpt.
    * Consistente beweging: Veo 3 blinkt uit in het produceren van realistische en consistente bewegingen van objecten in de video.

    Beschikbaarheid en toegang:

    Veo 3 is momenteel beschikbaar voor:

    * Google AI Ultra-abonnees: In de Verenigde Staten via de Gemini-app. Meer landen zullen volgen.
    * Zakelijke gebruikers: Via Google Cloud's Vertex AI.
    Flow: De AI-filmmaking tool:
    Naast Veo 3 heeft Google ook Flow geïntroduceerd, een nieuwe creatieve toolset die speciaal is ontworpen voor Veo 3. Flow integreert videogeneratie, beeldsynthese en natuurlijk taalbegrip in één interface. Het stelt gebruikers in staat om:
    * Hele scènes van begin tot eind te bouwen en te verfijnen.
    * Scènes te bewerken en uit te breiden met behoud van consistentie in look en tempo.
    * Cameragereedschappen te gebruiken voor het aanpassen van compositie, lenstype en beweging.
    * Activabibliotheken te gebruiken voor het organiseren van karakters, omgevingen en prompts.

    Vergelijking met concurrenten:

    Een belangrijk voordeel van Veo 3 ten opzichte van concurrenten zoals OpenAI's Sora is de geïntegreerde audiogeneratie. Veel andere AI-videogeneratie tools kunnen wel realistische beelden creëren, maar missen ingebouwde audio, waardoor aparte audiobewerking nodig is. Veo 3's vermogen om gesynchroniseerde audio te produceren, inclusief dialoog en geluidseffecten, wordt gezien als een "game changer" en een belangrijke stap in de richting van meer realistische en meeslepende AI-gegenereerde video's.
    Kortom, Veo 3 is een krachtig nieuw AI-model dat de lat voor videogeneratie aanzienlijk hoger legt, met name door de toevoeging van native, gesynchroniseerde audio. Dit opent nieuwe mogelijkheden voor filmmakers, contentmakers en creatieve professionals.


    Ik vind het een beetje eng worden

    https://vm.tiktok.com/ZNdhaT1wA/

    #AI #ARTIFICIALINTELLIGENCE #GOOGLE #VEO3 #TECHNOLOGIE #DEEPFAKE
    De 'DEEP-FAKES' zijn nu échter dan óóit. Google laceerde zijn nieuwste AI-model, VEO3 Met slechts een korte prompt kun je nu hyper-realistische AI-video's creëeren. Veo 3 is Google's nieuwste en meest geavanceerde AI-model voor het genereren van video's. Het is ontwikkeld door Google DeepMind en werd aangekondigd tijdens Google I/O 2025. Veo 3 vertegenwoordigt een significante doorbraak in AI-videogeneratie, vooral door de toevoeging van geïntegreerde audio. Hier zijn de belangrijkste kenmerken en mogelijkheden van Veo 3: * Video generatie van hoge kwaliteit: Veo 3 kan video's genereren op basis van tekst- en afbeeldingsprompts, met verbeterde kwaliteit en realisme. * Geïntegreerde audio: Dit is een van de meest baanbrekende functies. Veo 3 kan nu video's genereren met native audio, inclusief: * Spraak: zoals dialoog en voice-overs. * Geluidseffecten: relevante achtergrondgeluiden en geluidseffecten. * Muziek. * Lip-synchronisatie: Het model kan zelfs lip-synchronisatie uitvoeren, wat de realistische weergave van sprekende personages aanzienlijk verbetert. * Begrip van natuurwetten: Veo 3 is beter in staat om natuurwetten en fysica te simuleren, wat resulteert in realistischere bewegingen en interacties binnen de video. * Gedetailleerde prompts: Het model is uitstekend in het begrijpen van complexe promptdetails en kan korte verhalen omzetten in levendige videoclips. * Cameracontrole: Vooral in combinatie met "Flow" (zie hieronder), biedt Veo 3 geavanceerde cameramanipulatiefuncties, zoals pannen, zoomen en het aanpassen van camerahoeken, waardoor filmische opnamen mogelijk zijn. * Objectmanipulatie: Gebruikers kunnen objecten toevoegen of verwijderen binnen een videoscène, waarbij de AI de schaal, schaduwen en interacties met de omgeving begrijpt. * Consistente beweging: Veo 3 blinkt uit in het produceren van realistische en consistente bewegingen van objecten in de video. Beschikbaarheid en toegang: Veo 3 is momenteel beschikbaar voor: * Google AI Ultra-abonnees: In de Verenigde Staten via de Gemini-app. Meer landen zullen volgen. * Zakelijke gebruikers: Via Google Cloud's Vertex AI. Flow: De AI-filmmaking tool: Naast Veo 3 heeft Google ook Flow geïntroduceerd, een nieuwe creatieve toolset die speciaal is ontworpen voor Veo 3. Flow integreert videogeneratie, beeldsynthese en natuurlijk taalbegrip in één interface. Het stelt gebruikers in staat om: * Hele scènes van begin tot eind te bouwen en te verfijnen. * Scènes te bewerken en uit te breiden met behoud van consistentie in look en tempo. * Cameragereedschappen te gebruiken voor het aanpassen van compositie, lenstype en beweging. * Activabibliotheken te gebruiken voor het organiseren van karakters, omgevingen en prompts. Vergelijking met concurrenten: Een belangrijk voordeel van Veo 3 ten opzichte van concurrenten zoals OpenAI's Sora is de geïntegreerde audiogeneratie. Veel andere AI-videogeneratie tools kunnen wel realistische beelden creëren, maar missen ingebouwde audio, waardoor aparte audiobewerking nodig is. Veo 3's vermogen om gesynchroniseerde audio te produceren, inclusief dialoog en geluidseffecten, wordt gezien als een "game changer" en een belangrijke stap in de richting van meer realistische en meeslepende AI-gegenereerde video's. Kortom, Veo 3 is een krachtig nieuw AI-model dat de lat voor videogeneratie aanzienlijk hoger legt, met name door de toevoeging van native, gesynchroniseerde audio. Dit opent nieuwe mogelijkheden voor filmmakers, contentmakers en creatieve professionals. Ik vind het een beetje eng worden 😬 https://vm.tiktok.com/ZNdhaT1wA/ #AI #ARTIFICIALINTELLIGENCE #GOOGLE #VEO3 #TECHNOLOGIE #DEEPFAKE
    0 Kommentare 0 Geteilt 570 Ansichten
  • Elon Musk gaat de strijd aan met OpenAI en DeepSeek!

    Musk's xAI werkt aan een nieuwe chatbot om de AI-wereld op te schudden. Gaat dit een gamechanger worden?

    Wat denk jij? Laat het weten in de reacties! #AI #TechNews #ElonMusk
    https://www.telegraaf.nl/nieuws/904928328/musk-wil-met-nieuwe-chatbot-strijd-aangaan-met-open-ai-en-deep-seek
    🚀 Elon Musk gaat de strijd aan met OpenAI en DeepSeek! 💥 Musk's xAI werkt aan een nieuwe chatbot om de AI-wereld op te schudden. Gaat dit een gamechanger worden? 🤖🔥 Wat denk jij? Laat het weten in de reacties! 👇 #AI #TechNews #ElonMusk https://www.telegraaf.nl/nieuws/904928328/musk-wil-met-nieuwe-chatbot-strijd-aangaan-met-open-ai-en-deep-seek
    WWW.TELEGRAAF.NL
    Musk wil met nieuwe chatbot strijd aangaan met OpenAI en DeepSeek
    xAI, de start-up op het gebied van kunstmatige intelligentie (AI) van multimiljardair Elon Musk, heeft zijn nieuwste versie van chatbot Grok-3 gelanceerd. Met de chatbot, die Musk de „slimste AI op aarde” noemt, wil het bedrijf de concurrentie aangaan met de chatbots van OpenAI en het Chinese DeepSeek.
    0 Kommentare 0 Geteilt 598 Ansichten
  • Du musst 18+ sein, um diesen Inhalt ansehen zu können
  • Elon Musk doet megabod op OpenAI!
    Musk heeft bijna $100 miljard geboden om OpenAI over te nemen. Een gedurfde zet in de AI-wereld! Wat denk jij? Gaat dit gebeuren? #AI #ElonMusk #OpenAI
    https://nos.nl/artikel/2555367-musk-biedt-bijna-100-miljard-dollar-voor-overnemen-openai
    🚀 Elon Musk doet megabod op OpenAI! 💰 Musk heeft bijna $100 miljard geboden om OpenAI over te nemen. Een gedurfde zet in de AI-wereld! 🔥 Wat denk jij? Gaat dit gebeuren? 🤔👇 #AI #ElonMusk #OpenAI https://nos.nl/artikel/2555367-musk-biedt-bijna-100-miljard-dollar-voor-overnemen-openai
    NOS.NL
    Musk biedt bijna 100 miljard dollar voor overnemen OpenAI
    Topman??Sam Altman reageerde op sociale media kort maar krachtig op het bod: "Nee, bedankt."
    Like
    1
    0 Kommentare 0 Geteilt 416 Ansichten
  • #TechNieuws
    Microsoft onderzoekt DeepSeek vanwege vermeend OpenAI-datalek

    Microsoft onderzoekt de Chinese AI-ontwikkelaar DeepSeek na vermoedens van een datalek bij OpenAI. Het bedrijf wil nagaan of DeepSeek ongeautoriseerde toegang heeft gekregen tot gevoelige informatie van OpenAI’s AI-modellen. De kwestie is extra gevoelig omdat Microsoft nauw samenwerkt met OpenAI en miljarden heeft geïnvesteerd in de ontwikkeling van geavanceerde AI-technologieën. Zowel OpenAI als Microsoft hebben nog geen officiële verklaring afgelegd over de aard of omvang van het mogelijke datalek.
    https://aiwereld.nl/nieuws/microsoft-onderzoekt-deepseek-om-vermeende-openai-datalek
    #TechNieuws Microsoft onderzoekt DeepSeek vanwege vermeend OpenAI-datalek Microsoft onderzoekt de Chinese AI-ontwikkelaar DeepSeek na vermoedens van een datalek bij OpenAI. Het bedrijf wil nagaan of DeepSeek ongeautoriseerde toegang heeft gekregen tot gevoelige informatie van OpenAI’s AI-modellen. De kwestie is extra gevoelig omdat Microsoft nauw samenwerkt met OpenAI en miljarden heeft geïnvesteerd in de ontwikkeling van geavanceerde AI-technologieën. Zowel OpenAI als Microsoft hebben nog geen officiële verklaring afgelegd over de aard of omvang van het mogelijke datalek. https://aiwereld.nl/nieuws/microsoft-onderzoekt-deepseek-om-vermeende-openai-datalek
    0 Kommentare 0 Geteilt 583 Ansichten
  • OpenAI lanceert ChatGPT op WhatsApp

    OpenAI heeft een nieuwe stap gezet in het toegankelijk maken van zijn AI-chatbot ChatGPT. Vanaf nu kunnen gebruikers rechtstreeks via WhatsApp chatten met ChatGPT. Deze integratie maakt het eenvoudiger dan ooit om vragen te stellen, gesprekken te voeren of hulp te krijgen, direct vanaf je favoriete berichten-app. Meer details over hoe je de functie kunt activeren, zijn te vinden op de website van OpenAI.
    https://tweakers.net/nieuws/229944/openai-laat-gebruikers-via-whatsapp-chatten-met-chatgpt.html
    OpenAI lanceert ChatGPT op WhatsApp OpenAI heeft een nieuwe stap gezet in het toegankelijk maken van zijn AI-chatbot ChatGPT. Vanaf nu kunnen gebruikers rechtstreeks via WhatsApp chatten met ChatGPT. Deze integratie maakt het eenvoudiger dan ooit om vragen te stellen, gesprekken te voeren of hulp te krijgen, direct vanaf je favoriete berichten-app. Meer details over hoe je de functie kunt activeren, zijn te vinden op de website van OpenAI. https://tweakers.net/nieuws/229944/openai-laat-gebruikers-via-whatsapp-chatten-met-chatgpt.html
    0 Kommentare 0 Geteilt 563 Ansichten
  • OpenAI lanceert AI-zoekmachine voor alle ChatGPT-gebruikers

    OpenAI heeft aangekondigd dat de geavanceerde AI-zoekmachine voor ChatGPT nu beschikbaar is voor alle gebruikers. Deze functie maakt gebruik van real-time internettoegang om de meest actuele informatie te leveren, een grote stap vooruit voor het platform. Voorheen was de kennis van ChatGPT beperkt tot een vooraf gedefinieerde database, maar met deze uitbreiding kunnen gebruikers nu profiteren van direct bijgewerkte antwoorden. Dit maakt ChatGPT een nog krachtiger hulpmiddel voor onderzoek en dagelijkse toepassingen.
    https://tweakers.net/nieuws/229880/openai-maakt-ai-zoekmachine-voor-chatgpt-beschikbaar-voor-alle-gebruikers.html
    OpenAI lanceert AI-zoekmachine voor alle ChatGPT-gebruikers OpenAI heeft aangekondigd dat de geavanceerde AI-zoekmachine voor ChatGPT nu beschikbaar is voor alle gebruikers. Deze functie maakt gebruik van real-time internettoegang om de meest actuele informatie te leveren, een grote stap vooruit voor het platform. Voorheen was de kennis van ChatGPT beperkt tot een vooraf gedefinieerde database, maar met deze uitbreiding kunnen gebruikers nu profiteren van direct bijgewerkte antwoorden. Dit maakt ChatGPT een nog krachtiger hulpmiddel voor onderzoek en dagelijkse toepassingen. https://tweakers.net/nieuws/229880/openai-maakt-ai-zoekmachine-voor-chatgpt-beschikbaar-voor-alle-gebruikers.html
    0 Kommentare 0 Geteilt 482 Ansichten
  • Elon Slams Apple's Farcical "AI" Launch, Says Will Ban Tim Cook's "Creepy Spyware" Devices If They Integrate OpenAI
    https://www.zerohedge.com/markets/elon-slams-apples-farcical-ai-launch-says-will-ban-tim-cooks-creepy-spyware-devices-if-they
    Elon Slams Apple's Farcical "AI" Launch, Says Will Ban Tim Cook's "Creepy Spyware" Devices If They Integrate OpenAI https://www.zerohedge.com/markets/elon-slams-apples-farcical-ai-launch-says-will-ban-tim-cooks-creepy-spyware-devices-if-they
    WWW.ZEROHEDGE.COM
    Elon Slams Apple's Farcical "AI" Launch, Says Will Ban Tim Cook's "Creepy Spyware" Devices If They Integrate OpenAI
    "Either stop this creepy spyware or all Apple devices will be banned from the premises of my companies.... That is an unacceptable security violation".
    0 Kommentare 0 Geteilt 549 Ansichten
FriendHyve https://friendhyve.com