Es ist 14:37 Uhr an einem Dienstag. Unsere Beraterin schaut auf ihren Bildschirm: Die psychische Gefährdungsbeurteilung für ein mittelständisches Produktionsunternehmen ist abgeschlossen, 247 Mitarbeitende haben teilgenommen. Jetzt liegt ein mehrseitiger Ergebnisbericht vor ihr.
In diesem Bericht stecken 23 Handlungsfelder mit erhöhtem Risiko. Zeitdruck im Bereich Logistik. Fehlende Wertschätzung in der Verwaltung. Unklare Rollenverteilung in der Produktion. Konflikte zwischen Schichtteams. Alle statistisch signifikant, alle relevant – aber wo anfangen?
Unsere Beraterin kennt das Unternehmen aus mehreren Gesprächen. Sie weiß, dass der Betriebsrat besonders sensibel auf das Thema Zeitdruck reagiert. Sie weiß, dass die Geschäftsführung dieses Jahr stark auf Digitalisierung setzt. Und sie weiß, dass in der Produktion gerade eine große Umstrukturierung läuft.
Was sie in diesem Moment braucht, ist keine weitere Statistik. Sie braucht kontextualisierte Empfehlungen: Welche Maßnahmen passen zu dieser spezifischen Organisation? Welche Ansätze sind arbeitspsychologisch fundiert? Was sagt das Arbeitsschutzgesetz zu diesen Themen? Und wie priorisiert man, wenn alles wichtig erscheint?
Genau hier kommt unser KI-Team ins Spiel.
Warum KI in der Gefährdungsbeurteilung gerade jetzt relevant wird
2026 markiert einen Wendepunkt für die psychische Gefährdungsbeurteilung in Deutschland. Die Aufsichtsbehörden intensivieren ihre Kontrollen — Bußgelder bis zu 30.000 Euro drohen bei Nichtdurchführung. Gleichzeitig stellt die aktualisierte TRBS 1111 (Juli 2025) klar: Auch KI-gestützte Arbeitsmittel müssen Teil der psychischen Gefährdungsbeurteilung sein.
Ab August 2026 wird der EU AI Act vollständig anwendbar. Unternehmen, die KI am Arbeitsplatz einsetzen – für Leistungsüberwachung, Personaleinsatzplanung oder Bewerbermanagement – müssen die Auswirkungen auf die psychische Gesundheit ihrer Beschäftigten systematisch bewerten.
Der Druck steigt: Gefährdungsbeurteilungen müssen schneller, gründlicher und rechtlich solider durchgeführt werden. Die Anforderungen wachsen, während Ressourcen knapp bleiben.
DearEmployees KI-gestützte Beratung ist seit Wochen im Einsatz – und erfüllt bereits heute die Anforderungen von morgen.
Die wichtigsten Fakten auf einen Blick:
- Technologie: Open-Source Large Language Models (LLMs), selbst gehostet
- Infrastruktur: Europäische Server (Hetzner, Scaleway) — keine US-Cloud-Anbieter
- Architektur: RAG (Retrieval-Augmented Generation) mit kuratierten Wissensdatenbanken
- Datenschutz: 100% DSGVO-konform, keine Datenweitergabe, kein Training mit Kundendaten
- Anwendung: Psychische Gefährdungsbeurteilung nach ArbSchG
Was unsere KI-Berater tun (und was nicht)
Seit neuestem arbeiten unsere Consultants nicht mehr allein. Sie werden von einem Team spezialisierter KI-Agenten unterstützt — koordiniert durch unseren BGM-Navigator, einen Generalisten-Agenten, der Richtlinien, Gesetze und Grundprinzipien des betrieblichen Gesundheitsmanagements kennt und die Arbeit der Spezialisten orchestriert.
Wichtig dabei: Der Mensch bleibt in der Kontrolle. Unsere Beraterin entscheidet, welche Befragungsdaten sie an die Agenten weitergibt und in welchem Umfang. Kein Agent hat eigenständigen Zugriff auf Rohdaten – unsere Consultants bestimmen, was die KI sieht. Erst dann delegiert der BGM-Navigator an acht spezialisierte Experten-Agenten, die jeweils ein zentrales Handlungsfeld des betrieblichen Gesundheitsmanagements abdecken:
- Führung: Führungsverhalten, Kommunikation, Mitarbeitergespräche
- Arbeitsorganisation: Prozesse, Zeitdruck, Arbeitsgestaltung
- Work-Life-Balance: Vereinbarkeit, flexible Arbeitsmodelle, Erholung
- Team und Konflikte: Zusammenarbeit, Konfliktvermeidung, soziale Unterstützung
- Personalentwicklung: Qualifizierung, Karrierepfade, Feedback-Kultur
- Arbeitsumgebung: Ergonomie, Lärm, räumliche Bedingungen
- Kultur und Strategie: Werte, Veränderungsmanagement, Beteiligungskultur
- Psychische Gesundheit: Stressprävention, Resilienz, Früherkennung
Wenn unsere Beraterin beispielsweise die Ergebnisse zu erhöhtem Zeitdruck in der Logistik und fehlender Wertschätzung in der Verwaltung eingibt, aktiviert der BGM-Navigator gezielt die Experten für Arbeitsorganisation und Führung. Jeder Agent durchsucht seine Wissensdatenbanken, liefert fundierte Empfehlungen — und der Navigator führt die Ergebnisse zu einem kohärenten Gesamtbild zusammen.
Das Ergebnis landet bei unserer Beraterin – nicht als fertige Lösung, sondern als qualifizierte Grundlage für ihre Beratung.
Unsere Beraterin prüft die Vorschläge, gleicht sie mit ihrem Wissen über das Unternehmen ab, passt die Formulierungen an die Unternehmenskultur an — und verwandelt technische Empfehlungen in umsetzbare, menschliche Beratung.
Die KI ersetzt unsere Beraterin nicht. Sie macht sie besser.
Open-Source-KI auf europäischen Servern: Warum Datensouveränität entscheidend ist
Jetzt kommt der Teil, der Dich als HR-Verantwortlichen oder Partner vermutlich am meisten interessiert: Wo laufen diese KI-Modelle?
Die Antwort ist einfach: Auf unseren eigenen Servern bei europäischen Hosting-Anbietern wie Hetzner und Scaleway. Nicht bei OpenAI. Nicht bei Google. Nicht bei Anthropic. Nicht in den USA.
Wir nutzen Open-Source-Large-Language-Models (LLMs), die wir selbst betreiben. Das bedeutet:
- Volle Kontrolle: Wir entscheiden, was mit den Daten passiert.
- Keine Drittanbieter: Keine Unternehmensdaten verlassen unsere Infrastruktur.
- DSGVO-konform: Alle Server stehen in Deutschland oder der EU.
- Keine versteckten Trainings-Datenflüsse: Die Modelle lernen nicht aus deinen Daten.
Das ist kein Marketing-Versprechen. Das ist Architektur.
Vergleich der Ansätze
| Ansatz | Technologie | Hosting | Datenweitergabe |
|---|---|---|---|
| DearEmployee | Open-Source-LLMs (selbst betrieben) | Deutschland/EU (Hetzner, Scaleway) | Keine |
| Typische Anbieter | ChatGPT/Claude/Gemini APIs | USA (OpenAI, Anthropic, Google) | Ja (über API) |
Während viele Anbieter auf kommerzielle APIs setzen, betreibt DearEmployee die gesamte KI-Infrastruktur selbst — kein Datentransfer in Drittstaaten, volle Kontrolle über Modelle.
Wir haben uns bewusst gegen die “einfache” Lösung entschieden, ein paar API-Calls an ChatGPT oder Claude zu schicken. Diese Tools sind fantastisch für viele Anwendungsfälle. Aber nicht für sensitive HR-Daten in einem regulierten Umfeld wie der psychischen Gefährdungsbeurteilung.
Stattdessen haben wir den schwereren Weg gewählt: Open-Source-Modelle selbst hosten, Infrastruktur aufbauen und die gleichen Prinzipien anwenden, die auch US-Tools wie Claude Code so leistungsfähig machen. Insbesondere Multi-Agent-Systeme, bei denen spezialisierte KI-Agenten zusammenarbeiten, um komplexe Aufgaben zu lösen. Der Aufwand ist höher. Aber die Datensouveränität ist es wert.
Für dich als Kunden oder Partner bedeutet das: Wenn du uns Befragungsdaten anvertraust, bleiben sie in deutschen bzw. europäischen Rechenzentren unter unserer vollen Kontrolle. Keine Ausnahmen.
Wissensbasierte KI: Warum RAG den Unterschied macht
Hier wird es technisch — aber bleib dran, denn das ist der Kern dessen, warum unsere KI-Unterstützung nicht halluziniert und trotzdem flexibel bleibt.
RAG (Retrieval-Augmented Generation) ist eine KI-Architektur, die Large Language Models mit externen Wissensdatenbanken kombiniert. Statt aus dem Modellgedächtnis zu antworten, durchsucht das System zuerst verifizierte Quellen und formuliert Antworten auf Basis dieser Dokumente.
Large Language Models wie GPT, Claude oder die Open-Source-Varianten, die wir nutzen, sind beeindruckend. Sie können Texte schreiben, Zusammenhänge erkennen, komplexe Fragen beantworten. Aber sie haben ein Problem: Sie “erfinden” manchmal Fakten, wenn sie sich unsicher sind.
Für eine Beratungsempfehlung im Kontext psychischer Gefährdungsbeurteilung ist das inakzeptabel. Wir können es uns nicht leisten, dass ein Modell eine Studie zitiert, die nicht existiert, oder eine Maßnahme empfiehlt, die arbeitsrechtlich problematisch ist.
Die Lösung heißt RAG: Retrieval-Augmented Generation.
Das Konzept ist simpel: Statt das Modell einfach “raten” zu lassen, geben wir ihm verifizierte Quellen an die Hand. Wenn eine Frage gestellt wird, durchsucht das System zuerst unsere kuratierten Wissensbasen, findet die relevanten Informationen und erst dann formuliert das Modell eine Antwort auf Basis dieser Quellen.
Unsere Wissensdatenbanken umfassen:
- Arbeitspsychologische Forschung: Studien zu Belastungsfaktoren, psychischer Gesundheit am Arbeitsplatz, Zusammenhängen zwischen Arbeitsbedingungen und Gesundheit. Wir pflegen eine Bibliothek von Hunderten wissenschaftlichen Publikationen.
- Deutsches Arbeitsschutzrecht: ArbSchG, DGUV-Vorschriften, GDA-Leitlinien, BAuA-Empfehlungen. Alles, was rechtlich relevant ist für die psychische Gefährdungsbeurteilung.
- BGM-Best-Practices: Maßnahmenkataloge, Workshop-Formate, Interventionsbeschreibungen aus erfolgreichen Projekten. Anonymisiert, strukturiert, durchsuchbar.
- Unternehmensspezifische Kontexte: Branchenwissen, typische Herausforderungen nach Unternehmensgröße, kulturelle Besonderheiten (z. B. Mittelstand vs. Konzern).
Wenn der Experte für Arbeitsorganisation eine Frage zu Zeitdruck in der Logistik bekommt, durchsucht er die Wissensbasis nach Studien zu diesem Thema, findet relevante Erkenntnisse und formuliert auf Basis dieser Quellen eine Empfehlung. Nicht aus dem Gedächtnis, sondern aus verifizierten Dokumenten.
Das macht den Unterschied zwischen “irgendwas mit KI” und verlässlicher KI-gestützter Beratung.
Was KI-gestützte Beratung für deine Gefährdungsbeurteilung bedeutet
Du fragst dich vermutlich: Was bedeutet das konkret für mich?
Wenn du Partner bist:
Du bekommst schnellere, konsistentere und umfassendere Empfehlungen bei der Auswertung von Gefährdungsbeurteilungen. Du kannst mehr Kunden bedienen, ohne dass die Qualität leidet. Du hast Zugriff auf eine Wissensbasis, die breiter ist als das, was ein einzelner Berater im Kopf haben kann.
Die KI macht deine Arbeit nicht überflüssig. Sie macht sie effektiver. Du bleibst die entscheidende Instanz: die Person, die den Kunden kennt, die Nuancen versteht, die Empfehlungen anpasst. Aber du arbeitest schneller und fundierter.
Wenn du Kunde bist (HR-Abteilung, Geschäftsführung, Betriebsrat):
Du erhältst wissenschaftlich fundierte, rechtlich abgesicherte und praxisnahe Empfehlungen zu einem Bruchteil der Kosten einer traditionellen Beratung. Die Qualität ist höher, weil unsere Consultants auf ein Team von Spezialisten zurückgreifen können, statt alles aus dem Gedächtnis abzurufen.
Und das Wichtigste: Deine Daten bleiben sicher. Keine Weitergabe an US-Cloud-Anbieter, keine undurchsichtigen Datenflüsse, keine versteckten Trainings-Pipelines. Nur europäische Server unter unserer vollen Kontrolle.
Das Ergebnis?
Bessere Beratung. Schneller. Günstiger. Ohne Kompromisse beim Datenschutz.
Transparenz als Prinzip
Die meisten HR-Tech-Anbieter erzählen dir gerne, dass sie KI nutzen. Aber wie sie es tun — wo die Modelle laufen, wer mit den Daten trainiert, was bei einem Datenschutzverstoß passiert — bleibt oft im Dunkeln.
Wir glauben, dass du als HR-Verantwortlicher ein Recht auf diese Antworten hast. Deshalb schreibe ich diesen Artikel.
Weil viele Unternehmen gerade “irgendwas mit KI” machen — aber niemand erzählt, wie es wirklich funktioniert. Weil Datenschutz oft als Marketing-Slogan benutzt wird, ohne dass dahinter Substanz steckt. Und weil ich glaube, dass Vertrauen die Grundlage jeder Beratungsbeziehung ist, besonders wenn es um sensible Mitarbeiterdaten und psychische Gesundheit geht.
Wir bei DearEmployee haben uns entschieden, offen darüber zu sprechen, wie wir KI einsetzen. Nicht weil wir damit protzen wollen, sondern weil du ein Recht darauf hast zu wissen, was mit den Daten passiert, die du uns anvertraust.
Unsere Prinzipien:
- KI als Werkzeug, nicht als Ersatz: Menschen beraten Menschen. KI unterstützt, ersetzt aber nicht die Expertise unserer Consultants.
- Datensouveränität: Europäische Server, Open-Source-Modelle, volle Kontrolle. Keine Ausnahmen.
- Transparenz: Wir sagen, was wir tun, wie wir es tun und warum.
- Verantwortung: KI ist kein Zaubertrick. Wir prüfen die Ergebnisse, validieren die Empfehlungen und stehen für die Qualität ein.
Das ist kein perfektes System. Wir lernen jeden Tag dazu. Aber wir glauben, dass verantwortungsvoller KI-Einsatz so aussieht: Offen, kontrolliert, menschenzentriert.
Der Weg nach vorne
Unsere Beraterin hat inzwischen ihren Bericht fertiggestellt. Die KI-Empfehlungen waren die Grundlage — aber das Endprodukt ist ihre Arbeit. Sie hat die Maßnahmen priorisiert, die Formulierungen an die Unternehmenskultur angepasst, die rechtlichen Hinweise ergänzt.
Am nächsten Tag sitzt sie im Abschlussgespräch mit der Geschäftsführung und dem Betriebsrat. Ihre Empfehlungen sind fundiert, praxisnah und rechtlich sauber. Das Unternehmen weiß, wo es ansetzen muss.
Das ist der Moment, für den wir diese Technologie gebaut haben.
FAQ: Häufige Fragen zu unserer KI-gestützten Beratung
Ersetzt die KI eure Berater:innen?
Nein. Die KI unterstützt unsere Consultants, indem sie Zugang zu strukturiertem Wissen und kontextualisierten Empfehlungen bietet. Die eigentliche Beratung – das Verstehen des Kunden, die Anpassung der Maßnahmen, das Gespräch mit HR und Betriebsrat – bleibt menschlich.
Werden meine Daten verwendet, um eure Modelle zu trainieren?
Nein. Wir nutzen Open-Source-Modelle, die wir selbst hosten. Deine Daten werden ausschließlich für die Beratung verwendet und verlassen nicht unsere europäische Infrastruktur. Es gibt keine versteckten Trainings-Pipelines.
Was bedeutet “Open-Source-LLM”?
Ein Large Language Model, dessen Code öffentlich verfügbar ist und das wir auf unseren eigenen Servern betreiben können. Im Gegensatz zu proprietären Modellen wie ChatGPT haben wir volle Kontrolle über das Modell, die Daten und die Infrastruktur.
Wo stehen eure Server?
In Deutschland und der EU, bei Anbietern wie Hetzner und Scaleway. Alle Daten bleiben unter europäischer Rechtshoheit.
Kann die KI “falsche” Empfehlungen geben?
Theoretisch ja — deshalb prüfen unsere Consultants jede Empfehlung. Durch den Einsatz von RAG (Retrieval-Augmented Generation) minimieren wir Halluzinationen, indem wir das Modell auf verifizierte Quellen beschränken. Aber die letzte Instanz ist immer ein Mensch.
Wie unterscheidet ihr euch von anderen Anbietern, die “KI” nutzen?
Viele Anbieter nutzen kommerzielle APIs von US-Anbietern (OpenAI, Google, Anthropic). Das bedeutet: Deine Daten verlassen Europa und liegen außerhalb deiner Kontrolle. Wir betreiben eigene Modelle auf europäischen Servern — mit vollem Zugriff, voller Kontrolle und voller Datensouveränität.
Woher weiß ich, dass das nicht nur Marketing ist?
Das ist eine berechtigte Frage. Unsere Hosting-Partner Hetzner und Scaleway sind in unseren Auftragsverarbeitungsverträgen (AVV) dokumentiert, die du bei Vertragsabschluss erhältst. Wir garantieren vertraglich, dass keine Daten die EU verlassen. Unsere ISO 27001-Zertifizierung ist in Vorbereitung und wird die Architektur extern validieren. Für IT-Sicherheitsreviews bieten wir unter NDA technische Deep-Dives an: du kannst genau nachvollziehen, wie unsere Infrastruktur aufgebaut ist.

Benedikt Martinez Rodriguez
CTO, DearEmployee GmbH
Benedikt verantwortet die technische Entwicklung der Plattform. Er hat die KI-gestützte Beratungsinfrastruktur aufgebaut, die Consultants mit spezialisierten Agenten und kuratierten Wissensbasen unterstützt. Sein Fokus liegt auf europäischer Datensouveränität und verantwortungsvollem KI-Einsatz im HR-Kontext.
Interesse an einer Demo?
Wenn du mehr darüber erfahren möchtest, wie unsere KI-gestützte Beratung funktioniert — oder ob sie zu deinem Unternehmen passt — lass uns sprechen. Wir zeigen dir gerne, wie die Technologie im Detail arbeitet und welche Vorteile sie für deine Organisation bringen kann.
Jetzt Demo anfragen | info@dearemployee.de
