Das Spin-off Validaitor entwickelt Verfahren, mit denen KI-Anwendungen zuverlässig getestet werden – und schafft damit Vertrauen in eine Technologie, die unser Leben zunehmend bestimmt.
Künstliche Intelligenz verspricht Effizienz und Fortschritt – und doch fühlt sich der Umgang damit für viele Menschen beunruhigend an. Wir steigen ins autonome Taxi und vertrauen darauf, dass das Fahrzeug den Weg kennt und uns sicher ans Ziel bringt. Unternehmen lassen KI-gestützte Tools Bewerbungen sichten und hoffen, dass die Algorithmen die richtige Person finden und dabei fair und objektiv entscheiden. Doch in beiden Fällen bleibt unklar, wie genau diese Entscheidungen zustande kommen. Studien zeigen: Vor allem in sensiblen Bereichen wie Personalwesen, dem autonomem Fahren oder im medizinischen Umfeld ist das Misstrauen groß. Wer garantiert, dass ein System unter Stress nicht plötzlich anders handelt? Das KIT-Spin-off Validaitor nimmt sich genau diesem Misstrauen an. Statt auf blindes Vertrauen zu setzen, arbeitet die Software der Gründer wie die Sicherheitskontrollen am Flughafen: Sie scannt die KI, prüft Algorithmen unter anderem gezielt auf Robustheit, Fairness und Verlässlichkeit und macht die „Blackbox“ so durchschaubarer.
Das Testing Dashboard visualisiert Testläufe, Benchmarks und Qualitätsmetriken für ein KI-Modell. Beispielsweise können Nutzer Tests auswählen und durchführen oder die Ergebnisse sofort ansehen.
Operationalisierung statt Zertifizierung
„Als ich zum ersten Mal von den Risiken bei künstlicher Intelligenz gehört habe, war mir sofort klar, dass das eine sehr ernste Angelegenheit ist. Mein erster Gedanke war: Vielleicht sollte ich ein Toolkit entwickeln, um den Entwicklungsteams das Testen der KI zu vereinfachen“, erinnert sich Gründer Yunus Bulut. Aus einer persönlichen Sorge wurde binnen sechs Jahren ein Toolkit, aus dem Toolkit eine Plattform und aus der Plattform ein KIT-Spin-off: Validaitor. Was ihn und sein Team antreibt, ist keine reine Technik-Faszination, sondern die Frage, wie sich Vertrauen in eine Technologie herstellen lässt, die oft im Dunkeln arbeitet. Wenn Algorithmen beispielsweise in Medizin, Mobilität oder Personalwesen über Menschen entscheiden, reicht Vertrauen allein nicht — es braucht kontrollierbare, reproduzierbare Prüfungen. Zahlreiche Vorschläge, Leitfäden und sogar Gesetze existieren bereits, bleiben aber oft abstrakt. Validaitor möchte diese Lücke schließen, indem Prüfprozesse nicht als einmalige Gutachten, sondern als fester Bestandteil des Entwicklungs- und Betriebsalltags angeboten werden. „Es geht nicht allein um eine mögliche externe Zertifizierung, sondern um Operationalisierung dieser qualitätssichernden Prozesse direkt im Unternehmen“, sagt Gert Paczynski, Mitgründer und Chief Revenue Officer. „Wir bringen Entwickler, Compliance- und Risikoteams auf einer Plattform zusammen, standardisieren Arbeitsabläufe und integrieren Prüfungen direkt in den Entwicklungsprozess.“
Wie Validaitor funktioniert
Künstliche Intelligenz trifft zunehmend Entscheidungen in unserem Alltag, bleibt für Außenstehende aber oft eine undurchsichtige Blackbox. Ohne nachvollziehbare Prüfungen drohen Fehlentscheidungen, Missbrauch und Vertrauensverlust — besonders für Unternehmen, die kaum eigene Prüfkompetenz haben. Validaitor liefert eine integrierte Plattform, die KI-Projekte automatisch risikobewertet, passende Tests ausführt und Ergebnisse transparent gem. geltenden regulatorischen Vorgaben (wie z.B. dem EU AI Act) dokumentiert.
Die Plattform als Schaltzentrale
Die Lösung von Validaitor ist eine integrierte Plattform, die Testtools, Governance-Module, Risikomanagement und ein öffentliches Trust-Center auf einer Oberfläche vereint. So können Nutzende Befehle innerhalb einer einzigen Plattform auswählen und ausführen, ohne mehrere unterschiedliche Tools zusammenführen zu müssen. Der Ablauf ist bewusst einfach gehalten: Die Nutzenden registrieren ein Projekt und geben Metadaten an, beispielsweise wofür das System genutzt wird, wo es zum Einsatz kommt oder wer davon betroffen ist. Die Plattform schlägt automatisch passende, risikoadäquate Tests vor und unterstützt bei der Umsetzung – etwa bei der Dokumentation, den Workflows oder der Verknüpfung von Testergebnissen mit Compliance-Anforderungen. Dafür enthält sie spezielle Compliance-Assessments, die Gesetze wie den EU AI Act oder KI-spezifische ISO-Standards berücksichtigen. Darüber hinaus bietet sie Management-Funktionalitäten wie eine KI Model/System Registry, mit der Versionen und Metadaten von Machine-Learning-Modellen nachvollziehbar getrackt werden können. Das Besondere an der Validaitor-Plattform ist nicht nur die Technik, sondern auch die Arbeitsersparnis: Die Automatisierung entlastet immer knapper werdende Entwicklungsressourcen, vereinfacht Prüfverfahren und verhindert, dass Unternehmen im dynamischen KI-Umfeld Zeit verlieren.
Das Team von Validaitor: Cem Daloglu, Michael Graf, Yunus Bulut, Gert Paczynski und Sebastian Krauss
Vom Proof of Concept zum Standard
Was als Projekt begann, hat inzwischen Marktreife erreicht: Mit Fördermitteln vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR), Unterstützung aus der KIT-Gründerschmiede und einer ersten Risikokapitalrunde hat das Team die Plattform zur Marktreife gebracht. Seit September 2024 operiert Validaitor als Unternehmen, ist auf eine Teamstärke von 11 Personen gewachsen und zählt bereits erste zahlende Kunden — von KMU über Behörden bis zu kriminalforensischen Behörden in Deutschland. Mit der laufenden zweiten Förderphase „Startup Secure“ möchte das Spin-off in den kommenden Monaten weiterwachsen sowie sein Produkt und den Marktzugang optimieren. Die Ambition ist klar: Rechtzeitig zu den weiteren geplanten regulatorischen Anforderungen Mitte 2026 präsent und skalierbar sein. Die Stärke von Validaitor liegt in ihrem Versprechen: Vertrauen ist wichtig, Kontrolle macht es belastbar. Für viele kleine und mittlere Unternehmen, die nicht über dedizierte KI-Sicherheitsteams verfügen, bedeutet das konkretere Sicherheit – Compliance wird handhabbar, Tests wiederholbar und Ergebnisse transparent. Kurzfristig schützt das vor Fehlentscheidungen und rechtlichen Risiken. Langfristig könnte aus dem integrierten Ansatz eine sich weit verbreitende Vorgehensweise entstehen, die KI-Entscheidungen für Anwendende und Öffentlichkeit nachvollziehbar macht — und dies nicht nur als akademisches Ideal, sondern in der täglichen Praxis. Und das, so Yunus und Gert, ist genau das, was die Gesellschaft jetzt braucht.
Im Compliance Dashboard können Firmen ihre KI-Systeme automatisch auf Kompatibilität mit Vorgaben wie dem EU AI Act oder ISO Standards prüfen.
Yunus Bulut, Mitgründer von Validaitor
Das Projektteam: Cem Daloglu, Michael Graf, Yunus Bulut, Gert Paczynski und Sebastian Krauss (v.l.n.r.)
Das Testing Dashboard visualisiert Testläufe, Benchmarks und Qualitätsmetriken für ein KI-Modell.
Keyfacts zum Projekt
ZIEL
Entwicklung von Validierungstools für künstliche Intelligenz, um Unternehmen im Europäischen Wirtschaftsraum den sicheren Einsatz von Algorithmen zu ermöglichen
EINSATZ
Prüfverfahren für KI-Anwendungen unter anderem in sensiblen Bereichen wie Medizin, Mobilität oder Personalwesen, aber auch darüber hinaus
Diese Seite nutzt Website-Tracking-Technologien von Dritten, um ihre Dienste anzubieten. Ich bin damit einverstanden und kann meine Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen oder ändern.