Zie, ik heb nog een vierde belangrijke in het "spirituele" circuit.
Boni heeft wel veel tekst nodig. Doe me dan dr Apple maar 😇
Boni, jij lijkt wel op Joaquin Phoenix in de film Her
Ik heb geen AI nodig, ik gebruik mijn eigen intelligentie. Die is best wel oké.
Dat laatste zei AI tegen me, hoor...
Maar dat is het punt niet Boni. Jij haalt zijn naam aan in dit debat. Alsof zijn mening extra telt of zo.
Nu kan je je niet verschuilen achter 'iedereen heeft een mening'.
Zie titel. Ik vroeg me af, zeker nu het aantal AI-platforms aan het exploderen is, wat jullie gebruiken en waarom.
Zelf gebruik ik AI niet en heb er dus geen ervaring mee. Ik stond eigenlijk heel neutraal tegenover dat fenomeen, totdat ik de schrijfsels van @boni las......en nu ben ik wel bang.....
@boni:Waar ik bang voor ben?Dit draadje met een best zinvolle vraagstelling is gekaapt met eindeloze ogenschijnlijk diepzinnige teksten die nergens over gaan en linkjes naar nog meer vaagheid.Als dit soort tekstbrij de norm gaat worden zijn de rapen gaar
AI mixt feiten naadloos met hallucinaties. Er komt een brei aan tekst uit die niet zonder meer kan worden vertrouwd.
ConclusieEr bestaat dus geen universele consensus over wat hallucinaties zijn, net zoals er geen eenduidigheid bestaat over gezond verstand. Zowel de definitie als de interpretatie van hallucinaties hangt af van context, cultuur, het individu en wetenschappelijke paradigma’s.https://www.perplexity.ai/search/wat-is-gezond-verstand-bestaat-_6GApgpERmGRLa8cWLkEsQ#2
Over wat hallucinaties zijn is geen consensus zoals die er ook niet is over wat gezond verstand is.
Die consencus is er wel degelijk. Hier is hallucinaties gelijk aan onzin.En de onzin in dit draadje wordt steeds groter…
Over wat hallucinaties zijn is geen consensus ...
Like students facing hard exam questions, large language models sometimes guess when uncertain, producing plausible yet incorrect statements instead of admitting uncertainty. Such “hallucinations” persist even in state-of-the-art systems and undermine trust. We argue that language models hallucinate because the training and evaluation procedures reward guessing over acknowledging uncertainty, and we analyze the statistical causes of hallucinations in the modern training pipeline. Hallucinations need not be mysterious—they originate simply as errors in binary classification. If incorrect statements cannot be distinguished from facts, then hallucinations in pretrained language models will arise through natural statistical pressures. We then argue that hallucinations persist due to the way most evaluations are graded—language models are optimized to be good test-takers, and guessing when uncertain improves test performance. This “epidemic” of penalizing uncertain responses can only be addressed through a socio-technical mitigation: modifying the scoring of existing benchmarks that are misaligned but dominate leaderboards, rather than introducing additional hallucination evaluations. This change may steer the field toward more trustworthy AI systems.
En wat is nou de conclusie over Artificiële-intelligentie?
Volgens een recent rapport van NewsGuard zou ondertussen ca. 1 op 3 antwoorden op nieuws-gerelateerde vragen foute of misleidende informatie bevatten. Enz….