Pas op met copyright en privacy
Omdat het systeem traint met alle data die het opvangt, bestaat het risico dat alles wat je aan ChatGPT "voert" ooit weer via een andere weg naar buiten komt. En dan mogelijk niet via wegen die je zelf zou wensen. Hetzelfde is eerder gebeurd met GitHub CoPilot, dat copyrighted code "genereerde":
Een tool als ChatGPT kan je helpen om slimmer en efficiënter te werken, ook in combinatie met het Grexx platform. Dat merken we bij onze eigen collega’s en ook bij onze klanten. Vanuit Grexx vinden we het belangrijk om daar een kanttekening bij te plaatsen.
Ons advies: ga zéker met deze tools spelen en experimenteren. Zet ze in wanneer je daar nut voor ziet. Met openbare data is dat vaak geen enkel probleem. En daar zit de crux: wees zeer terughoudend met gebruik van privacygevoelige of bedrijfskritische gegevens. Voer de tool simpelweg geen data die je ook niet op Twitter of een ander openbaar medium zou zetten.
Veilig experimenteren
Zelf experimenteren we graag en veel met nieuwe technieken, zoals Machine Learning en andere vormen van AI. Uiteraard wel in onze eigen afgeschermde cloud-omgeving, waar we met privacygevoelige data kunnen werken zonder kans op meekijkers.
Ben je zelf op zoek naar zo’n veilige speeltuin? We staan altijd open voor partners of klanten die met ons mee willen experimenteren. Je vindt aan onze kant een hoop technische kennis, tools en ervaring. Aan jouw kant horen we graag over de wensen rondom toepassing ‘in het echt’. Neem gerust contact met ons op als je ideeën hebt!