Sei vorsichtig, was du „fütterst“ ChatGPT
Wo KI früher ein Begriff war, der nur in der IT verwendet wurde, haben Tools wie ChatGPT und Midjourney inzwischen die breite Öffentlichkeit erreicht.
Lesen Sie mehr
Künstliche Intelligenz boomt. Wo KI früher ein Begriff war, der nur in der IT verwendet wurde, haben Tools wie ChatGPT und Midjourney inzwischen die breite Öffentlichkeit erreicht. Verständlich, denn es ist bewundernswert, wie ChatGPT KI auf sehr zugängliche Weise auf den Markt bringt.
Bei Grexx sind wir natürlich extrem begeistert von diesen neuen Entwicklungen. Aber... wir sehen auch einige Gefahren. In den Ländern um uns herum werfen die Menschen bereits einen kritischen Blick auf die Datenschutzaspekte von ChatGPT und ähnlichen Systemen:
Seien Sie vorsichtig mit Urheberrecht und Datenschutz
Da das System mit allen Daten lernt, die es erfasst, besteht das Risiko, dass alles, was Sie an ChatGPT „einspeisen“, immer auch auf einem anderen Weg wieder herauskommt. Und möglicherweise nicht über die Wege , die Sie gerne hätten. Das Gleiche ist schon einmal mit GitHub CoPilot passiert, der urheberrechtlich geschützten Code „generiert“ hat:
- Entwickler gewarnt: GitHub Copilot-Code ist möglicherweise lizenziert (Oktober 2022)
- GitHub Copilot steht unter Beschuss, da der Entwickler behauptet, er gebe „große Teile meines urheberrechtlich geschützten Codes“ aus (Oktober 2022)
- Die ethischen und rechtlichen Herausforderungen von GitHub Copilot (Oktober 2022)
Ein Tool wie ChatGPT kann Ihnen helfen, intelligenter und effizienter zu arbeiten, auch in Kombination mit der Grexx-Plattform. Das merken wir bei unseren eigenen Kollegen und auch bei unseren Kunden. Wir bei Grexx denken, dass es wichtig ist, dies zu kommentieren.
Unser Rat: Spielen und experimentieren Sie unbedingt mit diesen Tools. Benutzen Sie sie, wenn Sie den Sinn verstehen. Mit öffentlichen Daten ist das oft kein Problem. Und das ist der Knackpunkt: Seien Sie sehr vorsichtig bei der Verwendung datenschutzrelevanter oder geschäftskritischer Daten. Geben Sie einfach keine Daten in das Tool ein, die Sie nicht auf Twitter oder einem anderen öffentlichen Medium veröffentlichen würden.
Sicher experimentieren
Wir selbst experimentieren gerne viel mit neuen Techniken wie maschinellem Lernen und anderen Formen der KI. Natürlich in unserer eigenen geschützten Cloud-Umgebung, in der wir mit vertraulichen Daten arbeiten können, ohne sie uns ansehen zu müssen.
Suchen Sie selbst nach einem solchen sicheren Spielplatz? Wir sind immer offen für Partner oder Kunden, die mit uns experimentieren möchten. Auf unserer Seite finden Sie viel technisches Wissen, Tools und Erfahrung. Auf Ihrer Seite würden wir uns freuen, mehr über die Wünsche für eine Anwendung im „echten Leben“ zu erfahren. Nehmen Sie gerne Kontakt mit uns auf, wenn Sie Ideen haben!