TL;DR
KI vernichtet die meisten Jobs (noch) nicht, aber sie macht viele sinnlos. Was übrig bleibt, nennen wir Hollow Jobs: Rollen, die auf dem Papier existieren, deren Denkarbeit aber an Maschinen gegangen ist. Die Forschung zeigt: Nach etwa 18 Monaten wird der Schaden sichtbar – Kompetenzverlust, Motivationseinbruch, steigende Fluktuation. Und das Tückische: Betroffene merken es selbst am wenigsten.
Die gute Nachricht: Die Aushöhlung ist vermeidbar, wenn Organisationen jetzt bewusst gestalten, wie Menschen und KI zusammenarbeiten. Dieser Artikel zeigt die Mechanismen, die Zeitlinie und sechs konkrete Gegenmaßnahmen.
Hollowing of Work: Was hinter diesem Phänomen steckt
Stellen Sie sich vor, Sie kommen morgens zur Arbeit – und es gibt nichts mehr zu denken
Sie haben noch einen Schreibtisch. Ein Gehalt. Einen Titel. Aber das, was Ihren Job einmal interessant gemacht hat – eine knifflige Analyse durchdenken, einen eigenen Lösungsweg entwickeln, eine Entscheidung treffen, bei der es auf Ihr Urteil ankommt – das erledigt jetzt ein System. Sie prüfen, was die KI vorschlägt. Sie nicken ab. Sie klicken „Freigeben“.
Klingt übertrieben? Für viele Wissensarbeiter ist es bereits Alltag.
Die öffentliche Debatte über Künstliche Intelligenz und Arbeit kreist seit Jahren um eine einzige Frage: Ersetzt KI meinen Job? Die Antwort lautet in den meisten Fällen: Nein.
Zumindest nicht sofort. Nicht vollständig. Womöglich beruhigt das jedoch die wenigsten.
Die OECD schätzt, dass 27 % aller Arbeitsplätze in Berufen mit hohem Automatisierungsrisiko liegen (OECD, 2025), das Brookings Institution beziffert, dass rund 30 % aller US-Beschäftigten mindestens die Hälfte ihrer Aufgaben durch generative KI verändert sehen könnten (Brookings Institution, 2024). Aber der massenhafte Jobverlust, den viele befürchten, bleibt aus.
Aber die eigentlich drängende Frage ist eine andere: Was bleibt von Ihrem Job übrig, wenn KI den eigentlich Wert übernimmt?
Was wir alle aktuell beobachten, auf LinkedIn, in den sozialen Medien oder in unseren Jobs ist nicht Verdrängung. Es ist Aushöhlung. Eine schleichende Entkernung von Arbeit, die strukturell bestehen bleibt, aber ihren kognitiven Kern verliert. Also das Denken, Schaffen, Urteilen, Problemlösen.
Der internationale Fachbegriff dafür: Hollowing of Work.
Im Deutschen lässt sich das am treffendsten als Sinnentleerung der Arbeit oder Substanzverlust beschreiben.
Das Ergebnis dieses Prozesses sind das, was wir als Hollow Jobs bezeichnen: hohle Jobs. Jobs ohne Sinn.
Wichtig: Diese Sinnentleerung ist etwas grundlegend anderes als Jobverlust.
Ihr Job steht noch in der Stellenbeschreibung. Ihr Gehalt wird noch überwiesen. Aber das, was die Arbeit bedeutsam gemacht hat, vor allem die Autonomie, das Kompetenzerleben, die kreative Auseinandersetzung; all das verschwindet. Was bleibt, ist eine Hülle.
Ein hohler Job ist eine Rolle, die strukturell weiter existiert, deren bedeutsame kognitive Arbeit – das eigenständige Denken, Erschaffen und Beurteilen – jedoch an KI-Systeme delegiert wurde. Der Mensch wird vom Macher zum Abnicker, vom Problemlöser zum Prüfer von KI-Output.
Definition HOLLOW JOB
Warum unsere Arbeit hohl wird: Das Drei-Schichten-Modell
Um zu verstehen, warum die Aushöhlung kein Zufall ist, sondern ein strukturelles Muster, hilft ein Blick auf die drei Ebenen, auf denen Wissensarbeit Wert erzeugt.
Wir nennen es das Drei-Schichten-Modell der KI-gestützten Wertschöpfung (Three-Layer Model of AI-Augmented Value Creation):
Schicht 1: Information und Recherche
Hier sind KI-Systeme exzellent. Daten sammeln, Quellen zusammenfassen, Muster extrahieren: diese Aufgaben sind begrenzt und überprüfbar. Wer sie an KI delegiert, spart Zeit, ohne viel zu riskieren.
Schicht 2: Analyse und Generierung
An dieser Stelle sind KI-Systeme brauchbar, aber fehlbar. Sie können Optionen entwerfen, Handlungsalternativen analysieren, Texte oder Code generieren. Die Qualität schwankt. Menschen sollten prüfen und validieren.
Schicht 3: Finales Urteil
Und zuletzt: hier sind KI-Systeme disqualifiziert. Personalentscheidungen, strategische Weichenstellungen, ethische Abwägungen, Karriereurteile – das erfordert menschliches Ermessen. Menschen müssen entscheiden.
Das Problem entsteht genau an der Schnittstelle: Menschen sollen Schicht-3-Urteile fällen, ohne die Schichten 1 und 2 selbst durchlaufen zu haben.
Stellen Sie sich das einmal konkret vor: Sie sollen ein Analyseergebnis beurteilen, das Sie nicht selbst erstellt haben. Einen Gedankengang prüfen, den Sie nicht selbst entwickelt haben. Auf Basis von Informationen entscheiden, die Sie nicht selbst gesammelt haben.
Können Sie das? Vielleicht, wenn Sie jahrelange Erfahrung mitbringen.
Ansonsten ist das kognitiv nicht leistbar. Der Grund hierfür ist nicht fehlende intelligenz, es liegt vielmehr an der Urteilsfähigkeit, die ja auf Erfahrung basiert. nicht, weil es an Intelligenz Aber: Wer die Erfahrung nicht mehr macht, verliert das Fundament für das Urteil.
Was dann passiert, ist leicht vorhersehbar: Aus einer Prüfung wird einfach ein schnelles Abnicken. Aus Oversight wird Rubber-Stamping. Und am Ende wird aus Verantwortung die performative Kontrolle.
Drei Mechanismen, die Arbeit von innen „aushöhlen“
Die Aushöhlung passiert nicht durch ein einzelnes Ereignis. Es sind drei Mechanismen, die sich gegenseitig verstärken
Das Expertise-Paradoxon: Ein Teufelskreis
Es gibt einen Zirkelschluss, den wir das Expertise-Paradoxon nennen. Es erklärt im Kern, warum KI-gestützte Führung und Kontrolle langfristig so schwierig sind:
Sie brauchen Expertise, um KI zu kontrollieren. Aber die Nutzung von KI verhindert genau die Praxis, die diese Expertise aufbaut und erhält.
Das klingt auf den ersten Blick ein wenig abstrakt. Ist es aber nicht.
- Softwareentwickler, die intensiv auf KI-Codegenerierung setzen, schneiden bei Verständnistests für neue Programmiersprachen 17 % schlechter ab als Kolleg:innen ohne KI-Unterstützung (Anthropic, 2026).
- In der Medizin zeigt eine Studie, dass Endoskopiker, die routinemäßig mit KI-gestützter Polypen-Erkennung arbeiten, bei plötzlichem Wegfall der Technologie eine um sechs Prozentpunkte niedrigere Erkennungsrate aufweisen. Und das nach nur wenigen Monaten Abhängigkeit (The Lancet Gastroenterology & Hepatology, 2025).
- Juristen arbeiten schneller mit KI, verlieren aber die Schriftsatzpraxis, die ihr juristisches Urteilsvermögen geschärft hat.
Das Muster wiederholt sich über Branchen hinweg – die Domäne wechselt, der Mechanismus bleibt.
Besonders schwierig ist das für Berufseinsteiger:innen. Junior-Entwickler:innen, die von Tag eins an in KI-gestützten Workflows arbeiten, überspringen genau das langsame, fehlerhafte, manchmal frustrierende Lernen, das Expertise überhaupt erst aufbaut.
Erfahrene Profis können KI als Beschleuniger nutzen, weil sie natürlich ein Fundament haben. Nachwuchskräfte bauen dieses Fundament gar nicht erst auf.
Für Führungskräfte bedeutet das: Nein, KI kann Führung nicht ersetzen.
Aber KI kann die Kompetenzgrundlage erodieren, auf der gute Führung basiert. Also: Wer als Führungskraft nicht mehr weiß, wie die Arbeit im Detail funktioniert, weil KI die operative Ebene übernommen hat, verliert das Fundament für strategische Entscheidungen. Die Frage ist nach zwei Jahren nun wirklich nicht mehr, ob KI die Führung ersetzt. Die Frage ist, ob Führungskräfte die Expertise auf ewig behalten, die Führung erst möglich macht.
Das 30-Minuten-Problem: Warum Monitoring scheitert
Angenommen, Ihre Organisation hat die KI-Einführung gut gemacht. Die Menschen prüfen den Output. Es gibt Freigabeprozesse. Klingt solide? Ist es leider oft nicht – und zwar aus einem Grund, den die Kognitionsforschung seit Jahrzehnten kennt: Vigilance Decrement.
Wenn Ihre Aufgabe darin besteht, KI-generierten Output zu überwachen und nur bei Fehlern einzugreifen, dann sinkt Ihre Erkennungsgenauigkeit bereits innerhalb der ersten 30 Minuten messbar. Die Reaktionszeit steigt.
Das ist eine Eigenschaft unseres Aufmerksamkeitssystems bei geringer Ereignisdichte – also genau der Situation, in der ein gutes KI-System selten Fehler macht (Thackray & Touchstone, 1989, in: Ergonomics; Frontiers in Cognition, 2025: „The Vigilance Decrement: Its First 75 Years“).
In der Flugsicherung hat man daraus Konsequenzen gezogen: Maximal zwei Stunden ununterbrochene Überwachung, dann Wechsel. In der Wissensarbeit, wo Menschen stundenlang KI-generierten Code, Texte, juristische Analysen oder Finanzmodelle prüfen? Keine Limits. Keine Vorschriften. Keine Pausen-Regeln. Dass das auf Dauer nicht funktioniert, sollte jedem klar sein.
Forscher von BCG und Harvard Business Review haben für den resultierenden Erschöpfungszustand kürzlich den Begriff „AI Brain Fry“ geprägt – mentale Überlastung durch exzessives Überwachen und Koordinieren von KI-Systemen (BCG/Harvard Business Review, 2026). Es sei, beschrieb eine Studienteilnehmerin, als habe man zwölf Browser-Tabs im Kopf offen, die alle gleichzeitig um Aufmerksamkeit kämpfen. Und mit diesem Vergleich kann sich jede:r identifizieren, dazu muss man keine Führungskraft sein.
Die unsichtbare Erosion:Wir alle merken nicht, dass es passiert
Der dritte Mechanismus macht die Aushöhlung besonders gefährlich, denn es fehlt ein inneres Warnsignal.
KI-gestützte Arbeit fühlt sich zunächst einfach besser an. Die meisten Aufgaben gehen schneller und die Ergebnisse wirken professioneller. Das subjektive Kompetenzgefühl steigt. Gleichzeitig sinkt aber die tatsächliche Kompetenz.
Forscher nennen das illusorische Kompetenz: man hält sich für fähiger, als man ist, weil die KI die Lücke unsichtbar füllt. Und das Tückische: KI-Assistenzsysteme beschleunigen nicht nur den Kompetenzverfall, sie verhindern auch, dass Experten und Lernende diesen Verfall bei sich selbst bemerken (Macnamara et al., 2024, in: Cognitive Research: Principles and Implications).
Eine Studie von Microsoft und Carnegie Mellon University (2025) bestätigt das: Je stärker Wissensarbeiter auf KI-Tools setzen, desto weniger kritisches Denken setzen sie ein – und desto schwerer fällt es ihnen, kritisches Denken bei Bedarf überhaupt noch abzurufen (Microsoft Research & Carnegie Mellon University, 2025). Nicht weil sie es vergessen hätten. Sondern weil die kognitive Gewohnheit verblasst. Hand aufs Herz: Das kennen Sie auch, oder?
Das Centre for International Governance Innovation beschreibt diesen Prozess als Agency Decay, einen stufenweisen Verfall von der anfänglichen Experimentierfreude über wachsende Integration und Abhängigkeit bis hin zu dem, was die Autoren „gewählte Blindheit“ nennen: Menschen haben die Fähigkeit verloren, ohne KI zu arbeiten, aber sie sind überzeugt, sie könnten es noch.
Erhalten Sie regelmäßig exklusives Vordenker-Wissen und praktische Tools rund um die Themen Digitale Evolution, Kulturwandel, Zukunftsfähigkeit, Resilienz, Achtsamkeit und die Gestaltung neuer Arbeitswelten.
Die 18-Monats-Hypothese in der Nutzung von KI
Jetzt wird es spannend: Die meisten KI-Studien messen 3 bis 12 Monate und berichten Positives. Das ist die Honeymoon-Phase. Aber unsere Synthese aus vier Forschungssträngen deutet auf einen Wendepunkt nach etwa 18 Monaten hin: Kompetenzverfall wird spürbar, Motivation sinkt, Turnover-Intentions steigen.
Warum der Sinnverlust so schwer wiegt? Forschung über 30 europäische Länder zeigt: Autonomie, Kompetenzerleben und Zugehörigkeit haben einen 4,6-mal stärkeren Zusammenhang mit Arbeitssinn als das Gehalt oder unsere Jobsicherheit (Cambridge Journal of Management and Organization, 2023).
Ergo: Gehaltserhöhungen kompensieren keinen Sinnverlust.
Für CEOs bedeutet das: Hat Ihre Organisation Anfang 2026 KI breit eingeführt, rechnen Sie Ende 2027 mit ersten Skill-Effekten und Anfang 2028 mit messbarem Motivationsverlust. Der Moment zum Gegensteuern ist nicht, wenn die Probleme sichtbar werden, sondern jetzt (und dafür sind wir ja da 😉).
Augmentation statt Aushöhlung: Drei Bedingungen, die den Unterschied machen
Es gibt Bereiche, in denen Technologie menschliche Arbeit nachweislich besser gemacht hat – nicht schlechter. Roboterassistierte Chirurgie, computergestütztes Design in der Architektur: Beide Fälle zeigen, dass Augmentation gelingen kann. Was sie gemeinsam haben:
- Der Mensch bleibt Entscheidungsträger
Beim Da-Vinci-System operiert der Chirurg. Das System erweitert seine Fähigkeiten, ersetzt aber nicht sein Urteil.
- Ausbildungswege werden um die Technologie herum neu gebaut
Von Anfang an mitgedacht. Credentialing verlangt nachgewiesene Hands-on-Kompetenz.
- Die Transition bekommt Zeit und institutionelle Begleitung
CAD hat die Architektur nicht ausgehöhlt, aber der Übergang dauerte Jahrzehnte, begleitet von Curriculum-Reform.
Wo diese drei Bedingungen fehlen – und das ist bei den schnellen KI-Rollouts der Jahre 2024 bis 2026 häufig der Fall –, steigt das Hollowing-Risiko erheblich.
Sechs Design-Prinzipien gegen die Aushöhlung
Die Aushöhlung ist, wie wir eben gesehen haben, ein Designproblem: Sie passiert nicht automatisch, sobald KI eingeführt wird. Sie passiert, wenn KI so eingesetzt wird, dass Menschen nur noch prüfen statt selbst arbeiten. Und wie KI eingesetzt wird, ist eine bewusste Entscheidung: von Führung, von Projektteams, von Organisationsdesign. Also: Wer die Arbeit anders gestaltet (aktive Einbindung statt passives Monitoring, Lernwege erhalten, Autonomie schützen), verhindert die Aushöhlung.
Das heißt aber auch: Sie ist durch Design lösbar. Sechs Prinzipien aus Forschung und Praxis:
- ActiveLoop statt Passive Monitoring
Human-on-the-Loop (Überwachung mit Eingriffsmöglichkeit) produziert paradoxerweise die schlechtesten Ergebnisse, vor allem die Monitoring-Müdigkeit plus Stressproblemösung bei Ausfällen.
Setzen Sie auf Human-in-the-Loop: Menschen aktiv in Entscheidungsschleifen einbinden. Kognitiv teurer, aber es erhält Kompetenz und Urteilsfähigkeit.
- Skill-Maintenance und KI-freie Zonen
20 bis 30 % der Arbeitszeit in KI-intensiven Rollen für Aufgaben ohne KI-Unterstützung reservieren. Das Prinzip kennt die Luftfahrt: Piloten müssen regelmäßig manuell fliegen, weil Kompetenz ohne Übung verfällt. Manche Unternehmen experimentieren bereits mit „Off-AI-Tagen“, an denen Teams merken, was sie ohne KI nicht mehr können.
- Monitoring-Sessions begrenzen.
Die Flugsicherung limitiert Überwachungsschichten auf zwei Stunden. Für Wissensarbeiter, die KI-Output prüfen, gibt es keinerlei vergleichbare Regeln. Begrenzen Sie durchgehende KI-Output-Review, danach Aufgabenwechsel.
- Messen, was wirklich zählt
Produktivitätskennzahlen erfassen nicht, ob Ihre Analystin die Annahmen hinter dem KI-Modell noch versteht. Ergänzen Sie: Skill-Tests (nicht Selbsteinschätzung), Autonomie-Erleben, Sinnerleben, Turnover-Intentions. Zukunftskompetenzen wie kritisches Urteilsvermögen, eigenständiges Problemlösen, Arbeitsfähigkeit mit und ohne K, sind die Future Skills, die über Wettbewerbsfähigkeit entscheiden.
- Den Nachwuchs aktiv schützen
KI übernimmt exakt die Routinearbeit, die Berufseinsteiger:innen trainiert hat: recherchieren, entwerfen, Fehler machen, daraus lernen. Wenn Juniors von Tag eins nur noch Output generieren lassen, bricht die Kompetenzleiter. Nachwuchsführungskräfte-Programme müssen Phasen „KI-freien“ Arbeitens enthalten.
- Die ethische Führungskonversation führen
Bevor Sie Prinzipien 1 bis 5 umsetzen, braucht Ihre Führung eine klare Vision: Was glauben wir über die Rolle von Menschen in unserer Arbeit? Was sind wir bereit, für diesen Glauben zu zahlen? Diese Konversation hat nichts mit Schul-Philosophie zutun, denn jede KI-Entscheidung beantwortet diese Frage implizit.
Der EU AI Act: Gut gemeint, nicht gelöst
Der EU AI Act verlangt ab August 2026 bei Hochrisiko-KI „sinnvolle menschliche Kontrolle“ durch Personen mit „angemessener Kompetenz“ (EU AI Act, 2024, Art. 14). Keiner der beiden Begriffe ist definiert. Und das Expertise-Paradoxon macht die Lücke sichtbar: Die Regulierung fordert Kontrollkompetenz, schafft aber keine Bedingungen, um sie aufrechtzuerhalten.
Für Organisationen im deutschen Raum gibt es einen Vorteil: Betriebsräte haben seit 2021 ausdrückliche Mitbestimmungsrechte bei KI-Einsatz. Diese Strukturen sind ein echtes Asset, wenn Betriebsräte die beschriebenen Dynamiken verstehen und auf technischer Ebene mitverhandeln können.
Was Führungskräfte jetzt über KI und Arbeit entscheiden müssen
Wir haben in diesem Artikel viel über Mechanismen, Paradoxien und Forschungsergebnisse gesprochen. Aber im Kern geht es um etwas sehr Einfaches: Wollen Sie, dass die Menschen in Ihrer Organisation denken – oder dass sie einfach reagieren?
Das klingt wie eine rhetorische Frage. Ist es aber nicht. Denn die meisten KI-Einführungen beantworten diese Frage gerade stillschweigend mit „reagieren“. Nicht aus böser Absicht, sondern weil niemand sie explizit gestellt hat. Geschwindigkeit und Kostenersparnis waren die offensichtlichen Ziele und die Frage nach dem Sinn der verbleibenden Arbeit stand schlichtweg nicht auf der Agenda.
Unsere Erfahrung aus der Arbeit mit Organisationen in über 50 Ländern zeigt: Die Unternehmen, die KI-Transformationen gut hinbekommen, sind nicht die mit der besten Technologie. Es sind die, deren Führung sich traut, ganz offene Gespräche zu führen. Und nein, das ist nicht selbstverständlich. Man muss darüber reden, was menschliche Arbeit in einerOrganisation wert ist. Darüber, was sie bereit sind zu investieren, um sie zu schützen. Und darüber, wo sie bewusst langsamer gehen als der Wettbewerb – weil sie wissen, dass die Abkürzung langfristig teurer wird.
Diese Gespräche sind nervig, das verstehen wir. Aber sie sind der Unterschied zwischen Organisationen, die in drei Jahren noch ihre Expertise haben, und solchen, die dann feststellen, dass ihre Teams zwar irgendwie produktiv aussehen … aber niemand mehr weiß, warum.
Falls Sie beim Lesen an Ihre eigene Organisation gedacht haben: Wir helfen Ihnen, die Aushöhlung sichtbar zu machen, bevor sie zum Problem wird.
Häufig gestellte Fragen
Was genau ist ein Hollow Job – ein hohler Job?
Ein hohler Job ist eine Rolle, die formal weiter existiert, deren bedeutsame kognitive Arbeit aber an KI-Systeme delegiert wurde. Der Mensch prüft und genehmigt, statt zu denken und zu entscheiden. Die Stellenbeschreibung bleibt. Die Substanz geht.
Wie unterscheidet sich die Aushöhlung der Arbeit (Hollowing of Work) von Jobverlust?
Jobverlust bedeutet, die Stelle verschwindet. Aushöhlung bedeutet: Die Stelle bleibt, aber die Arbeit verliert ihren kognitiven Kern – und damit ihren Sinn. Sinnentleerung und schleichende Entwertung sind die Folge, oft unsichtbar in Produktivitätskennzahlen.
Was ist das Expertise-Paradoxon im Kontext von KI und Führung?
Sie brauchen Expertise, um KI zu kontrollieren. Aber KI-Nutzung verhindert genau die Praxis, die diese Expertise aufbaut. Je mehr Sie KI nutzen, desto weniger können Sie beurteilen, ob die KI richtig liegt. Dieses Automatisierungsparadoxon beschrieb Lisanne Bainbridge bereits 1983 – es ist bis heute ungelöst (Bainbridge, 1983: „Ironies of Automation“, in: Automatica).
Kann KI Führung ersetzen?
Nein, definitiv nicht. Doch sie kann die Kompetenzgrundlage erodieren, auf der gute Führung basiert. Führungskräfte, die durch KI-Delegation den Kontakt zur operativen Realität verlieren, treffen schlechtere strategische Entscheidungen. Die Frage ist nicht, ob KI Führung ersetzt, sondern ob Führungskräfte die Expertise behalten, die moderne Führung erst möglich macht.
Was können Organisationen konkret gegen die Aushöhlung tun?
Sechs Design-Prinzipien bilden einen Rahmen: aktive Entscheidungsschleifen statt passives Monitoring, strukturierte Skill-Maintenance, KI-freie Zonen, Monitoring-Session-Limits, Messung von Kompetenz und Sinnerleben neben Produktivität, und gezielter Schutz der Nachwuchsentwicklung. Details finden Sie im vollständigen Report.
Welche Future Skills werden im KI-Zeitalter entscheidend?
Kritisches Urteilsvermögen, eigenständiges Problemlösen, die Fähigkeit, KI-Output zu hinterfragen statt abzunicken, und die Resilienz, auch ohne KI-Unterstützung handlungsfähig zu bleiben. Organisationale Resilienz entsteht, wenn Teams diese Zukunftskompetenzen systematisch aufbauen und erhalten.
Was hat die Self-Determination Theory mit KI zu tun?
Intrinsische Motivation basiert laut Deci und Ryan auf drei Grundbedürfnissen: Autonomie, Kompetenzerleben und Zugehörigkeit. Wenn KI-Systeme Autonomie einschränken und Kompetenzerleben untergraben, sinkt das Sinnerleben – unabhängig vom Gehalt. Nicht-monetäre Arbeitsfaktoren sind 4,6-mal stärker mit Arbeitssinn verbunden als Einkommen (Cambridge Journal of Management and Organization, 2023).
KI-Führungskompetenz entwickeln: Die einzige Learning Journey für Führungskräfte, die Künstliche Intelligenz, New Leadership und KI-Transformation verbindet.
Werden Sie Teil der New Leadership Community:
Erhalten Sie regelmäßig exklusives Insiderwissen, praxisnahe Tools und sofort umsetzbare Lösungen rund um das Thema ‚Neue Führung‘.
Kontakt
Lassen Sie sich individuell von Verena beraten, wie Sie sich selbst, Ihr Team und Ihre Organisation achtsamer führen können.
Sie sehen gerade einen Platzhalterinhalt von Zoho Forms. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen