Künstliche Intelligenz, Maschinenlernen & Deep Learning sind leistungsfähige Technologien, die nahezu grenzenlose Möglichkeiten eröffnen: von maschinellen Übersetzungen über KI-Chatbots bis hin zu selbstfahrenden Autos.
Doch KI ist ein Werkzeug, das unsere besten und schlechtesten Entscheidungen verstärken kann und daher mit Umsicht eingesetzt werden muss: Beispielhaft sei hier auf automatisierte Bewerber-Screenings bei der Stellenbesetzung oder Kreditvergabe verwiesen, bei denen implizites Bias auftreten und durch KI verstärkt werden kann. Solche Probleme gilt es proaktiv zu identifizieren und zu beheben.
Wichtig ist dieses Problembewusstsein nicht nur für Data Scientists, die für Entwicklung, Deployment & Wartung von ML-Modellen zuständig sind, sondern auch für Geschäftsanwender, die mit vollautomatischen KI-Plattformen wie DataRobot arbeiten.
Bei DataRobot steht das Thema ‚vertrauenswürdige KI‘ weit oben auf der Agenda:
Künstliche Intelligenz soll menschliche Entscheidungen nicht ersetzen, sondern durch neue Erkenntnisse und die Erklärung bislang unbekannter Zusammenhänge unterstützen. DataRobot hat sich zum Ziel gesetzt, eine KI zu schaffen, die schwierigen Fragen ethisch, fair und vertrauenswürdig löst und die Nutzer bestmöglich vor unerwarteten Modellproblemen schützt. In der Zusammenarbeit mit Kunden und Partnern wird die Bedeutung proaktiver, Vertrauen schaffender Massnahmen immer wieder bestätigt.
Mehr Informationen zu DataRobot und dessen Engagement für ethische KI gibt es in diesem LinkedIn-Event mit Edward Kwartler: Trust, Ethics, and AI.