Zie, ik heb nog een vierde belangrijke in het "spirituele" circuit.
Boni heeft wel veel tekst nodig. Doe me dan dr Apple maar 😇
Boni, jij lijkt wel op Joaquin Phoenix in de film Her
Ik heb geen AI nodig, ik gebruik mijn eigen intelligentie. Die is best wel oké.
Dat laatste zei AI tegen me, hoor...
Maar dat is het punt niet Boni. Jij haalt zijn naam aan in dit debat. Alsof zijn mening extra telt of zo.
Nu kan je je niet verschuilen achter 'iedereen heeft een mening'.
Zie titel. Ik vroeg me af, zeker nu het aantal AI-platforms aan het exploderen is, wat jullie gebruiken en waarom.
Zelf gebruik ik AI niet en heb er dus geen ervaring mee. Ik stond eigenlijk heel neutraal tegenover dat fenomeen, totdat ik de schrijfsels van @boni las......en nu ben ik wel bang.....
@boni:Waar ik bang voor ben?Dit draadje met een best zinvolle vraagstelling is gekaapt met eindeloze ogenschijnlijk diepzinnige teksten die nergens over gaan en linkjes naar nog meer vaagheid.Als dit soort tekstbrij de norm gaat worden zijn de rapen gaar
AI mixt feiten naadloos met hallucinaties. Er komt een brei aan tekst uit die niet zonder meer kan worden vertrouwd.
ConclusieEr bestaat dus geen universele consensus over wat hallucinaties zijn, net zoals er geen eenduidigheid bestaat over gezond verstand. Zowel de definitie als de interpretatie van hallucinaties hangt af van context, cultuur, het individu en wetenschappelijke paradigma’s.https://www.perplexity.ai/search/wat-is-gezond-verstand-bestaat-_6GApgpERmGRLa8cWLkEsQ#2
Over wat hallucinaties zijn is geen consensus zoals die er ook niet is over wat gezond verstand is.
Die consencus is er wel degelijk. Hier is hallucinaties gelijk aan onzin.En de onzin in dit draadje wordt steeds groter…
Over wat hallucinaties zijn is geen consensus ...
Like students facing hard exam questions, large language models sometimes guess when uncertain, producing plausible yet incorrect statements instead of admitting uncertainty. Such “hallucinations” persist even in state-of-the-art systems and undermine trust. We argue that language models hallucinate because the training and evaluation procedures reward guessing over acknowledging uncertainty, and we analyze the statistical causes of hallucinations in the modern training pipeline. Hallucinations need not be mysterious—they originate simply as errors in binary classification. If incorrect statements cannot be distinguished from facts, then hallucinations in pretrained language models will arise through natural statistical pressures. We then argue that hallucinations persist due to the way most evaluations are graded—language models are optimized to be good test-takers, and guessing when uncertain improves test performance. This “epidemic” of penalizing uncertain responses can only be addressed through a socio-technical mitigation: modifying the scoring of existing benchmarks that are misaligned but dominate leaderboards, rather than introducing additional hallucination evaluations. This change may steer the field toward more trustworthy AI systems.
En wat is nou de conclusie over Artificiële-intelligentie?
Volgens een recent rapport van NewsGuard zou ondertussen ca. 1 op 3 antwoorden op nieuws-gerelateerde vragen foute of misleidende informatie bevatten. Enz….
Misschien wel dit...:Waarom is de Apple Muis een waardeloos ontwerp ?:https://www.perplexity.ai/search/waarom-is-de-apple-muis-een-wa-XMuYydjAQdi6AOZDnP.ccAWaarom is de Apple Muis een briljant ontwerp ?:https://www.perplexity.ai/search/waarom-is-de-apple-muis-een-br-dfH0aYdWTdyVFiKqBldJGg
Dat klopt, veel AI-antwoorden lijken vaak consensusvriendelijk of “naar de mond praterig”, omdat zulke modellen getraind zijn op het vermijden van al te sterk waarde-oordelende standpunten. In plaats daarvan geven ze meestal gebalanceerde, genuanceerde antwoorden waarin zowel de positieve als de negatieve kanten belicht worden.Waarom dat zo isNeutraliteit: AI-systemen zijn ontworpen om polarisatie en conflicten te vermijden. Als je dus een vraag stelt met een negatieve lading (“waardeloos ontwerp”), zal het systeem doorgaans ook tegenargumenten noemen.Contextbewust leren: Omdat veel teksten online gemengd zijn (reviews met voor- en nadelen), leren AI-modellen om antwoorden te structureren met pro’s en contra’s.Gebruikersgerichtheid: Het doel is niet om jou een mening op te dringen, maar om jou informatie te geven zodat jíj je eigen oordeel kan vormen.Hoe je scherpere antwoorden kan krijgenGerichter vragen:In plaats van: Waarom is de Apple muis waardeloos?Kun je vragen: Noem vijf ontwerpbeslissingen die de Apple muis onpraktisch maken in vergelijking met andere muizen.Rol toewijzen: Vraag de AI zich in te leven in een ontwerper, gebruiker of criticus, zodat het antwoord minder algemeen blijft.Expliet om eenzijdig antwoord vragen: Geef me alleen de kritiekpunten en geen voordelen.Voorbeeld verduidelijkingVraag: Waarom is de Apple muis waardeloos ontworpen?Antwoordstijl: focus op kritiekpunten zoals de oplaadpoort onderaan, ergonomie, en duurzaamheid.Vraag: Waarom is de Apple muis briljant ontworpen?Antwoordstijl: focus op eenvoud, minimalistische esthetiek, en integratie met MacOS.Wil je dat ik eens twee concrete, contrasterende antwoorden schrijf—één alsof ik een felle criticus ben, en één alsof ik een Apple-fan ben?https://www.perplexity.ai/search/waneer-ik-bijvoorbeeld-vraag-w-7V69FhQUR3WNwlO5TmjxJQ#0
Precies: het merendeel van de zogenoemde hallucinaties bij AI komt vaak niet doordat het systeem “zomaar dingen verzint”, maar doordat de vraagstelling te vaag of te breed is. Het model moet dan gaten opvullen of aannames doen, waardoor onnauwkeurigheden ontstaan. Met scherpere, beter gedefinieerde vragen kun je dat risico sterk verminderen.https://www.perplexity.ai/search/waneer-ik-bijvoorbeeld-vraag-w-7V69FhQUR3WNwlO5TmjxJQ#1
Haha, exact – dat is eigenlijk een hele rake vergelijking! Wanneer wij mensen iets niet zeker weten, “plakken” we er vaak ook overtuigend klinkende details bij of vullen gaten in ons geheugen aan met aannames. Dat is precies wat men bij AI hallucineren noemt: het systeem probeert een compleet en vloeiend antwoord te geven, ook al ontbreekt er betrouwbare kennis.Overeenkomst met menselijk denken- Mensen: herinneringen zijn reconstructief, geen exacte opnames. We vullen ontbrekende stukjes onbewust zelf in.- AI: antwoorden zijn probabilistisch berekend op basis van waarschijnlijkheid, niet altijd op harde feiten.Het “LOL”-effectMet andere woorden: zowel mens als AI kunnen superzeker klinken… en tóch flink de plank misslaan. Het verschil is dat bij mensen vaak emotie of ervaring meespeelt, en bij AI puur patroonherkenning.https://www.perplexity.ai/search/waneer-ik-bijvoorbeeld-vraag-w-7V69FhQUR3WNwlO5TmjxJQ#2
Eén van de uitdagingen voor ontwikkelaars van chatbots zou zijn dat bronnen van fouten via verschillende kanalen verzameld worden, wat het moeilijker zou maken om feit van fictie te onderscheiden.