Kwaliteit is geen handeling, het is een gewoonte

vlag

.......... Feiten en

Feiten en AI

- Conversatie van Rob Arntz met ChatGPT

You said:

Wie heeft het FCO-IM boek geschreven?

ChatGPT said:
Het FCO-IM-boek (Fully Communication-Oriented Information Modeling) is geschreven door Herman Balsters, Harm van der Lek, en Lex van Vliet. Dit boek beschrijft de FCO-IM-methodologie, een techniek voor informatiemodellering die sterk gericht is op communicatie en het expliciet vastleggen van kennis in natuurlijke taal.

De FCO-IM-methode wordt veel gebruikt om complexe informatiesystemen te modelleren op basis van gestructureerde communicatie met eindgebruikers. Het benadrukt het volledig begrijpen van de betekenis van gegevens in een specifieke context, voordat deze worden geïmplementeerd in een technisch systeem.

Heb je specifieke vragen over het boek of de methodologie?


You said:
Wie is Herman Balsters?

ChatGPT said:
Herman Balsters is een Nederlandse wetenschapper en expert op het gebied van informatiesystemen, databasetechnologie en conceptuele modellering. Hij is vooral bekend vanwege zijn bijdragen aan Object Role Modeling (ORM) en gerelateerde methodologieën voor informatiemodellering.

Achtergrond en Bijdragen
1. Academische Carrière:
Herman Balsters heeft gewerkt als universitair docent en onderzoeker, onder andere aan de Rijksuniversiteit Groningen. Zijn academische werk richtte zich op onderwerpen als databases, semantische modellering en de integratie van conceptuele modellen in informatietechnologie.

2. Object Role Modeling (ORM):
Hij heeft actief bijgedragen aan het onderzoek en de ontwikkeling van ORM, een datamodelleringstechniek die gericht is op het modelleren van conceptuele schema's in natuurlijke taal. ORM wordt gebruikt om informatiesystemen te ontwerpen op een manier die zowel begrijpelijk is voor technici als domeinexperts.

3. Publicaties:
Herman Balsters heeft meerdere wetenschappelijke publicaties op zijn naam staan in internationale journals en conferenties, vaak met focus op ORM, databases en informatie-integratie. Zijn werk is belangrijk voor onderzoekers en professionals die zich bezighouden met datamodellering.

Als je meer specifieke informatie zoekt over zijn werk, kan ik daar verder op ingaan!


You said:
Wie is Lex van Vliet?

ChatGPT said:
Lex van Vliet is een Nederlandse expert op het gebied van informatiemodellering en datamanagement. Hij is medeontwikkelaar van de FCO-IM-methode (Fully Communication-Oriented Information Modeling) en een van de auteurs van het boek over deze methodologie. Lex heeft een belangrijke bijdrage geleverd aan het veld van conceptueel modelleren door zijn focus op communicatie als basis voor datamodellen.

Hij heeft zich gespecialiseerd in methoden en technieken om complexe informatiestructuren begrijpelijk en bruikbaar te maken voor organisaties. Zijn werk is van grote waarde geweest voor het verbeteren van de communicatie tussen domeinexperts en IT-specialisten. Naast het ontwikkelen van FCO-IM heeft hij ook onderwijs gegeven, presentaties verzorgd en trainingen ontwikkeld op het gebied van informatiemodellering.

Wil je meer weten over zijn werk of een specifieke bijdrage die hij heeft geleverd?


You said:
Vertel me alles wat je over hem weet!

ChatGPT said:
Mijn kennis over Lex van Vliet is beperkt tot zijn werk en bijdragen binnen het vakgebied van informatiemodellering. Hier is een overzicht van wat ik weet.

Bijdragen aan FCO-IM
• Lex van Vliet is een van de drie coauteurs van het boek over de Fully Communication-Oriented Information Modeling (FCO-IM)-methode.
• Hij heeft de FCO-IM-methodologie mede ontwikkeld om informatiemodellen te baseren op de communicatie tussen mensen. Dit maakt het mogelijk om datamodellen in natuurlijke taal te formuleren, wat begrijpelijk is voor zowel domeinexperts als technici.

Professionele Achtergrond
• Lex heeft zich voornamelijk beziggehouden met onderwijs, trainingen en consultancy op het gebied van informatiemodellering.
• Zijn expertise ligt in het toegankelijk maken van complexe concepten en het verbeteren van de kwaliteit van datamodellen in organisaties.

Publicaties
• Zijn bekendste publicatie is het boek over FCO-IM. Dit boek wordt veel gebruikt door professionals en studenten die zich willen verdiepen in communicatief georiënteerde informatiemodellering.


Onlangs stuurde mijn collega in cursusgeven, Rob Arntz, mij het volgende verhaal toe over zijn bevindingen met ChatGPT, waarvan u hierboven een transcript vindt:

“Kort geleden stelde ik aan ChatGPT de volgende, simpele vraag: "Wie heeft het FCO-IM boek geschreven?" Dit leverde een zeer verrassend antwoord op: "Herman Balsters, Harm van der Lek, en Lex van Vliet."

Verrassend, want niet helemaal correct! Maar ook niet helemaal incorrect. Laten we beginnen met het goede nieuws: ChatGPT noemt drie auteurs, dat is correct, en één daarvan is Harm van der Lek, ook correct. Het minder goede nieuws is: Herman Balsters en Lex van Vliet zijn geen coauteurs van het FCO-IM boek (red. P.A.: de juiste namen die missen zijn Guido Bakema en Jan Pieter Zwart; zie fig.1 en 2 rechtsboven). Een kleine zoektocht op LinkedIn leerde mij dat Herman Balsters "Associate professor in Modelling and Design of Information Systems, Faculty of Computer Science" aan de Rijksuniversiteit Groningen is. Verder speurwerk liet mij zien dat hij onder andere coauteur is van het artikel "Modeling Dynamic Rules in ORM", samen met onder meer Terry Halpin. In dit artikel wordt naar het FCO-IM boek verwezen. Hij is dus bekend met de methode en had gezien zijn achtergrond best een coauteur kunnen zijn.

Lex van Vliet is een naam die mij helemaal niets zei in het kader van FCO-IM. Ook met verder doorvragen aan ChatGPT kon ik er niet achter komen wie deze Lex mag wezen en wat de link met FCO-IM is. ChatGPT bleef in zijn zelf verzonnen cirkeltje ronddraaien.

Dit laat zien, dat als antwoord op één vraag een deels correct, deels plausibel maar incorrect en deels ongeloofwaardig antwoord werd gegeven. Maar deze kwalificaties 'correct', 'plausibel', 'incorrect' en 'ongeloofwaardig' kun je alleen toekennen, als je het volledig juiste antwoord al kent. En hierin schuilt meteen het grote gevaar van ChatGPT en zijn gelijken: je weet doorgaans het juiste antwoord op een vraag niet. En zou er nu op elke vraag lariekoek als antwoord komen, dan is dat nog niet zo’n probleem. Dan hecht je geen geloof aan de antwoorden van AI. Maar juist omdat het antwoord vaak wel correct is en AI ook de sterke suggestie wekt dat de antwoorden juist zijn, geloof je AI ook wanneer het een niet correct antwoord geeft. En misschien zijn de plausibele maar toch incorrecte antwoorden (zoals hier Herman Balsters) nog wel het gevaarlijkst. Door hun plausibiliteit ga je niet twijfelen aan het antwoord en daar verkeerde conclusies aan verbinden.”
Rob Arntz, juli 2025.

Inderdaad blijkt inmiddels uit verschillende bronnen, zoals de eind juli door Google gepresenteerde kwartaalcijfers, dat enerzijds het gebruik van AI voor zoekopdrachten toeneemt maar anderzijds het gebruik van het internet daardoor ingrijpend verandert. AI-chatbots geven direct antwoord en omdat deze antwoorden vertrouwd worden, klikken gebruikers minder vaak door naar websites die betrouwbare informatie leveren, zoals op gebied van nieuws, research en medische informatie. Vooral bij gezondheidssites is de bezoekafname groot en zo dreigen vele gebuikers af te dwalen in een wereld van wanen met alle gevolgen van dien.

Het verhaal van Rob deed mij onmiddellijk denken aan een van mijn eerdere columns over een citaat dat op vele websites wordt toegeschreven aan de medicus Thomas Fuller, levend van 1654 tot 1734, met de toevoeging dat het citaat te vinden is in zijn boek Gnomologia uit 1732 (zie Historie van columns over BI, Informatiemanagement en Informatiekwaliteit).

Ik vertelde in die column, dat ik het boek Gnomologia volledig heb doorgelezen en de betreffende uitspraak niet heb kunnen vinden. En nog gekker: op de voorkant van de tweede druk van Gnomologia, uitgegeven in 1817, prijkt de beeltenis van Thomas Fuller de geestelijke, historicus en schrijver, levend van 1608 tot 1661. Er zijn zelfs ook websites die het betreffende citaat aan hem toeschrijven. Maar in alle werken van zowel Thomas Fuller, M.D., als Thomas Fuller, de geestelijke, heb ik het betreffende citaat tot nog toe niet kunnen vinden.

Ook bij deze algemeen aanvaarde beweringen en weergaven is er, net als in het verhaal van Rob, sprake van waarheden, halve waarheden en onwaarheden. Ten slotte heb ik in die column, ruim tweehonderd jaar later, de feiten weergegeven, zoals ik die wel heb kunnen verifiëren, bijvoorbeeld dat het betreffende citaat wijdverbreid wordt toegeschreven aan Thomas Fuller, M.D., schrijver van het boek Gnomologia uit 1732. En in het portret van Thomas Fuller, de geestelijke, heb ik het gezicht van Thomas Fuller, M.D, gezet, waarop puur toevallig - zo leek het mij - een licht ironische glimlach is te zien.

Wat kunnen wij hieruit leren? Wel, het is enerzijds bemoedigend maar anderszins ook ietwat ontluisterend, om te constateren dat AI in ontwikkeling op het gebied van betrouwbaarheid van informatie inmiddels is gevorderd tot het niveau van de mensheid zo’n twee eeuwen geleden. Het heeft klaarblijkelijk nog een flinke slag te maken om de kloof met volledig waarheidsgetrouwe informatie te overbruggen, maar hopelijk weet het dankzij zijn snelheid van leren daar korter over te doen dan tweehonderd jaar.

- Peter Alons, juli 2025

P.S., 6 augustus 2025: Vandaag meldden verschillende nieuwsbronnen, waaronder NOS.nl, TIME.com en Psychology today, dat meer en meer mensen door intensief gebruik van ChatGPT en andere AI chatbots psychoses of andere vormen van psychische ontregelingen ontwikkelen.

 

Links

Impressies:




Verwante sites: