Wees voorzichtig met wat je ChatGPT 'voert'
Waar AI voorheen een term was die je alleen in de IT tegenkwam, hebben tools als ChatGPT en Midjourney inmiddels het grote publiek bereikt.
Artificial Intelligence is booming. Waar AI voorheen een term was die je alleen in de IT tegenkwam, hebben tools als ChatGPT en Midjourney inmiddels het grote publiek bereikt. Begrijpelijk, want het is bewonderenswaardig hoe ChatGPT AI op een enorm laagdrempelige manier naar de markt brengt.
Bij Grexx zijn we natuurlijk razend enthousiast over deze nieuwe ontwikkelingen. Maar… we zien ook wat gevaren. In de landen om ons heen kijkt men al kritisch naar de privacy-aspecten van ChatGPT en vergelijkbare systemen:
Pas op met copyright en privacy
Omdat het systeem traint met alle data die het opvangt, bestaat het risico dat alles wat je aan ChatGPT "voert" ooit weer via een andere weg naar buiten komt. En dan mogelijk niet via wegen die je zelf zou wensen. Hetzelfde is eerder gebeurd met GitHub CoPilot, dat copyrighted code "genereerde":
- Developers warned: GitHub Copilot code may be licensed (oktober 2022)
- GitHub Copilot under fire as dev claims it emits ‘large chunks of my copyrighted code’ (oktober 2022)
- The Ethical and Legal Challenges of GitHub Copilot (oktober 2022)
Een tool als ChatGPT kan je helpen om slimmer en efficiënter te werken, ook in combinatie met het Grexx platform. Dat merken we bij onze eigen collega’s en ook bij onze klanten. Vanuit Grexx vinden we het belangrijk om daar een kanttekening bij te plaatsen.
Ons advies: ga zéker met deze tools spelen en experimenteren. Zet ze in wanneer je daar nut voor ziet. Met openbare data is dat vaak geen enkel probleem. En daar zit de crux: wees zeer terughoudend met gebruik van privacygevoelige of bedrijfskritische gegevens. Voer de tool simpelweg geen data die je ook niet op Twitter of een ander openbaar medium zou zetten.
Veilig experimenteren
Zelf experimenteren we graag en veel met nieuwe technieken, zoals Machine Learning en andere vormen van AI. Uiteraard wel in onze eigen afgeschermde cloud-omgeving, waar we met privacygevoelige data kunnen werken zonder kans op meekijkers.
Ben je zelf op zoek naar zo’n veilige speeltuin? We staan altijd open voor partners of klanten die met ons mee willen experimenteren. Je vindt aan onze kant een hoop technische kennis, tools en ervaring. Aan jouw kant horen we graag over de wensen rondom toepassing ‘in het echt’. Neem gerust contact met ons op als je ideeën hebt!