Die Kunst über 2026 hinaus kein Roboter zu werden.
Warum wir keine 26 neuen Skills brauchen, sondern endlich den Verstand einschalten müssen
Über den Unterschied zwischen Skills, die man googeln kann, und einem Charakter, den man sich erarbeiten muss.
Neulich saß ich in einem Café, eines dieser Etablissements, in denen der Hafermilch-Zuschlag mehr Relevanz hat, als die Entwicklung des Bruttoinlandsprodukts und las einen Newsletter. Er trug den Titel „26 Skills für das Jahr 2026“. Allein der Titel löste in mir den unwiderstehlichen Drang aus, sofort ein Nickerchen zu machen. Offenbar, so die Autorin, befinden wir uns in einem „historischen Phasenübergang“. Die Party sei vorbei, jetzt beginne der Ernst. Wir müssten uns vom simplen Anwender zum „Orchestrator“ von „Agentic AI“ wandeln. Wir bräuchten „Skill Stacks“, „Cognitive Firewalls“ und die Fähigkeit zum „Botscaling“.
Ich schaute mich in dem Café um. Am Nebentisch saß ein junger Mann, der so intensiv auf sein Telefon starrte, dass er fast in seinen Matcha Hafer-Latte fiel, und gegenüber versuchte eine Mutter, drei Kindern gleichzeitig den Mund abzuwischen, während sie über ihre Kopfhörer mit jemandem am Telefon sprach. Und ich fragte mich: Brauchen diese Leute wirklich „Botscaling“? Oder brauchen sie vielleicht einfach nur ein wenig Ruhe, funktionierende Infrastruktur und die Gewissheit, dass sie nicht morgen „irrelevant“ sind, nur weil sie keinen eigenen KI-Agenten programmiert haben?
Wir erleben derzeit eine seltsame, kollektive Hysterie. Eine ganze Industrie aus Beratern, Futuristen und LinkedIn-Propheten hat es sich zur Aufgabe gemacht, uns permanent einzureden, wir seien defizitär. Der Mensch, so der Tenor, ist ein Auslaufmodell, eine fehlerhafte Software, die dringend ein Update braucht. Wenn wir nicht sofort anfangen, uns „neu zu erfinden“, unser bisheriges Alltagswissen „zu verlernen“ und unsere „Skill Stacks“ zu optimieren, dann werden wir von der Welle der Geschichte hinweggespült.
Ich sage Ihnen mal was: Das ist Unsinn. Es ist gefährlicher Unsinn.
Denn diese Obsession mit „Future-Skills“ – mit kleinen, isolierten Fertigkeiten – lenkt uns von dem ab, was wir wirklich verlieren, wenn wir nicht aufpassen: Unsere Kompetenz als Menschen unsere Zukunft zu gestalten. Und das ist, mit Verlaub, ein himmelweiter Unterschied.
Warum ihr persönlicher Skill-Stack-Wahn niemanden interessiert, solange sie keine Werte haben.
Lassen Sie uns kurz über Sprache reden. Worte sind wichtig. Wenn wir anfangen, unser Leben mit Begriffen aus der Softwareentwicklung zu beschreiben, dann beginnen wir, uns selbst wie Software zu behandeln. In dem Text, den ich las, stand, wir müssten unsere „Skill Stacks“ bauen. Ein „Stack“ ist ein Stapel. In der IT sind das verschiedene Technologien, die übereinandergeschichtet werden. Wenn eine veraltet ist, zieht man sie raus und schiebt eine neue rein. Das ist effizient für Maschinen. Aber Menschen sind keine Stapelware.
Das Problem mit Listen wie „26 Skills für 2026“ ist ihre Beliebigkeit. Da steht „Neugier“ neben „Prompting“. Da steht „Resilienz“ neben „Daten-Intuition“. Das ist, als würden Sie ein Haus bauen und sagen: „Wir brauchen Ziegel, Zement, gute Laune und die Fähigkeit, Spaghetti zu kochen.“ Es vermischt Werkzeuge mit Haltungen, Charakterzüge mit Bedienungsanleitungen.
Es suggeriert, dass wir uns für die Zukunft rüsten können, indem wir uns einfach noch mehr Wissen anlesen, noch mehr Tutorials schauen, noch mehr Zertifikate sammeln. Es ist die Ideologie der ständigen Selbstoptimierung. Wir sollen „Orchestratoren“ werden – Dirigenten von Roboter-Armeen. Das klingt elitär, und das ist es auch. Es ist eine Vision für Manager, die den Bezug zur Realität verloren haben.
Denn was passiert mit der Pflegerin? Mit dem Handwerker? Mit der Lehrerin? Sollen die auch „Teams aus autonomen Agenten“ orchestrieren, während sie einem echten Menschen den Verband wechseln oder Kindern Empathie beibringen? Wohl kaum. Diese technokratische Sichtweise reduziert den Menschen auf seine wirtschaftliche Verwertbarkeit. Sie fragt: „Wie kann der Mensch der Maschine noch nützlich sein?“ Die richtige Frage, die einzige Frage, die eine zivilisierte Gesellschaft stellen sollte, lautet aber: „Wie verdammt noch mal bringen wir die Maschine dazu, dem Menschen nützlich zu sein?“
Und hier kommen wir zu dem Bild, das wir eigentlich betrachten sollten. Nicht den wackeligen Stapel aus „Skills“, sondern den Kreis der echten Kompetenzen.
Können wir bitte aufhören so zu tun, als wäre das Leben ein Management-Seminar.
Wenn man den Lärm der Buzzwords einmal abstellt, dann offenbart sich eine Struktur, die viel älter ist als das Internet und die auch noch bestehen wird, wenn KIs wie ChatGPT mit all ihren Agenten längst im digitalen Museum steht. Es ist der Unterschied zwischen Können und Sein.
Schauen wir uns das genauer an. Ein kluges Kompetenzmodell teilt den Menschen nicht einfach in „Features“ auf, sondern zum Beispiel in vier Bereiche: Fachkompetenz, Methodenkompetenz, Sozialkompetenz und Personale Kompetenz.
Die Propheten der „Agentic AI“ reden fast ausschließlich über die linke Seite: Über Fach- und Methodenwissen. Wie bediene ich das Tool? Wie analysiere ich die Daten? Das sind nützliche Dinge, keine Frage. Aber es sind Dinge, die sich ändern. Heute ist es die Programmiersprache Python, morgen ist es natürliche Sprache, übermorgen Gedankenübertragung (Gott bewahre). Das sind Skills. Die kann man lernen, und die kann man vergessen - vor allem können sie sich ändern.
Aber die wahre Krise, in die wir hineinschlittern, ist keine Krise der fehlenden Skills. Wir haben genug Leute, die programmieren können. Wir haben genug Leute, die wissen, wie man einen Prozess optimiert. Wir haben eine Krise der Personalen und Sozialen Kompetenz.
Nehmen wir das Wertebewusstsein. In der Welt der „Skill Stacks“ kommt das kaum vor. Da heißt es höchstens vage „Ethischer Kompass“. Aber Wertebewusstsein ist mehr als ein Kompass, den man bei Bedarf aus der Tasche zieht. Es ist das Fundament. Wenn wir Agenten bauen, die autonom handeln – die also Dinge tun, ohne uns vorher zu fragen –, dann müssen wir uns verdammt sicher sein, nach welchen Werten wir diese Systeme ausrichten. Nicht „Effizienz“. Effizienz ist kein Wert. Effizienz ist ein Beschleuniger. Wenn Sie einen rassistischen, ungerechten Prozess effizienter machen, haben Sie am Ende nur schnelleres Unrecht.
Wertebewusstsein bedeutet, die Frage nach dem „Warum“ zu stellen, bevor man das „Wie“ automatisiert. Es ist die Fähigkeit, in einem Meeting aufzustehen und zu sagen: „Wir könnten das tun, und es würde uns Millionen sparen, aber es ist falsch.“ Welcher KI-Agent wird Ihnen das sagen? Keiner. Das ist Ihr Job.
Oder nehmen wir das Folgebewusstsein. Ein wunderbares Wort. Es fehlt völlig in der hyperventilierenden Tech-Debatte. Dort herrscht das Prinzip „Move fast and break things“. Aber wenn die Dinge, die man zerbricht, die Demokratie, das psychische Wohlbefinden von Teenagern oder der soziale Frieden sind, dann sollten wir vielleicht etwas langsamer machen. Folgebewusstsein ist die intellektuelle Reife, das Ende vom Lied zu kennen, bevor man die erste Note spielt. Es ist die Fähigkeit zu antizipieren: Wenn wir KI nutzen, um Bewerbungsgespräche zu führen, was macht das mit der Würde der Bewerber? Wenn wir unsere Texte von Bots schreiben lassen, was heißt das für den Respekt gegenüber Menschen die das lesen müssen und was passiert mit unserer Fähigkeit zu denken?
Schreiben ist Denken. Wer das Schreiben delegiert, delegiert das Denken. Folgebewusstsein ist kein „Skill“, die man in einem Wochenendseminar lernt. Es ist eine Haltung, die aus Bildung, Reflexion und – ja, leider – aus Zeit entsteht. Dinge, die wir uns angeblich nicht mehr leisten können.
Wollen wir wirklich von der menschlichen in die „Digitale Empathie“ wechseln?
Kommen wir zu meinem Lieblingsfeindbild in dieser ganzen Debatte: Die Forderung nach „Digitaler Empathie“. Was soll das sein? Sollen wir den Server streicheln, wenn er überhitzt ist? Der Newsletter den ich im Café las, definiert es als die Fähigkeit, sich in Prozesse emotional hineinzuversetzen, auch wenn diese durch die Interaktion mit KI gesteuert sind.
Wir brauchen im Umgang mit KI keine Empathie für das Digitale. Wir brauchen ein analytisches Verständnis und die Kompetenz der Beurteilung von KI-basierten Empfehlungen und Aussagen. Das ragt zwar tief in die Persönlichkeit hinein, ist und sollte aber keine emotionale Verbindung mit dem digitalen Medium implizieren, da hierüber Abhängigkeiten und vorschnelle Akzeptanz gefördert wird.
Wir leben in einer Welt, die zunehmend synthetisch ist. Bilder, Stimmen, Texte, Videos – alles kann und wird generiert sein. Wahre Kompetenz im Jahr 2026 bedeutet nicht, „gefühlig“ mit der Technik umzugehen. Es bedeutet, einen mentalen Bullshit-Detektor zu entwickeln, der feiner justiert ist als je zuvor. Es ist die Fähigkeit zu unterscheiden: Was ist Signal? Was ist Lärm? Was ist ein Mensch? Was ist eine Simulation? Und vor allem: was will ich?! Was sind meine Werte?!
Digitale Empathie, wenn wir den Begriff retten wollen, müsste eigentlich Medienmündigkeit gepaart mit Menschenkenntnis bedeuten. Es geht darum, zu erkennen, wann uns ein Algorithmus emotional manipulieren will. Wenn die KI so spricht, dass wir uns verstanden fühlen, dann „fühlt“ die KI nichts. Sie simuliert. Und wenn wir uns zu KI hingezogen fühlen, weil sie besser auf uns reagiert als Menschen, dann entsteht eine Entgesellschaftlichung – und damit ein Einfallstor für Manipulation, gewollt oder ungewollt. Denn im Moment manipulieren wir uns selber indem wir bestimmte Inhalte und Narrative über die KI verstärken, die wir selbst hinein gegeben haben. Wir spiegeln, statt zu erkennen. Zu erkennen wiederum, dass diese digitale Simulation kein Ersatz für menschliche Nähe ist – das ist die Kompetenz.
Wir müssen aufhören, die Maschine zu vermenschlichen oder über KI versuchen die menschliche Intelligenz nachzustellen – Maschinen können maschinelle Intelligenz viel besser. Sicher ist es beeindruckend wenn eine Maschine wie ein Mensch reagiert. Aber es reduziert auch die Möglichkeiten dieser Maschine. Stattdessen sollten wir die Technik nutzen, um wieder menschlicher zueinander zu sein.
Gerne können wir Prozesse, die heute „unmenschlich“ sind, wie stundenlanges Sitzen vor Monitoren, uns über Maschinen abnehmen lassen. Aber bitte doch nicht menschliche Beziehungen durch Beziehungen zu Maschinen ersetzen. Maschinen sind nicht einmal wie Haustiere. Sie tun nichts für uns aus Empathie. Ein Hund, eine Katze spürt uns und interagiert deshalb. Maschinen tun was sie programmiert bekommen. Im Moment ist das übrigens noch ganz „nett“. Aber wir sind erst am Anfang. Denken Sie nur an den Beginn der Suchmaschinen. Zu Beginn haben sie tatsächlich relevante Suchergebnisse angezeigt, heute wissen wir überhaupt nicht mehr nach welchem bezahlten oder programmierten Algorithmus wir Informationen hieraus abrufen.
Lebensqualität statt „Botscaling“ – Eine Frage der Inklusion
Und damit sind wir beim Kern des Problems: Der strategischen Anwendung zur Förderung unserer Lebensqualität. Der Text, über den ich mich so aufrege, spricht von „Botscaling“. Er will Geschäftsmodelle durch Agenten skalieren. Mehr Output, weniger Menschen. Das ist der feuchte Traum jedes BWL-Erstsemesters. Aber ist das eine Strategie für eine Gesellschaft?
Eine wirkliche Strategie, eine Strategie, die diesen Namen verdient, zielt auf Inklusion ab. Schauen Sie sich die heutige Technik an: Sie ist exklusiv. Wer profitiert am meisten von KI? Diejenigen, die ohnehin schon privilegiert sind. Die Wissensarbeiter, die Programmierer, die Unternehmen, die sich teure Lizenzen leisten können. Die alleinerziehende Mutter, die versucht, Elterngeld zu beantragen, kämpft immer noch mit Formularen aus dem 19. Jahrhundert, die auf Servern aus dem 20. Jahrhundert liegen.
Strategische Kompetenz bedeutet, die Technologie dorthin zu lenken, wo sie wirklich gebraucht wird. Stellen Sie sich „Agentic AI“ nicht als Ihren persönlichen Assistenten vor, der Ihre E-Mails sortiert, damit Sie mehr Yoga machen können. Stellen Sie sich „Agentic AI“ als ein System vor, das im Hintergrund die Bürokratie so weit abschmilzt, dass der Bürger wieder atmen kann. Ein System, das Übersetzungsbarrieren für Einwanderer in Echtzeit abbaut, nicht damit Google mehr Daten bekommt, sondern damit Integration funktioniert. Ein System, das in der Pflege die Dokumentationspflicht automatisiert – nicht um Pflegekräfte einzusparen, sondern damit die Pflegekraft zum ersten Mal seit Jahren wieder Zeit hat, die Hand eines Sterbenden zu halten, ohne auf die Uhr zu schauen.
Das ist der Punkt, den die Tech-Evangelisten oft übersehen: Wir wollen nicht effizienter leben. Niemand liegt auf dem Sterbebett und denkt: „Hätte ich doch bloß meine Outlook-Inbox schneller abgearbeitet.“ Wir wollen effizienter arbeiten, damit das Leben wieder Platz hat.
Wenn „Agentic AI“ und all diese schönen neuen Tools dazu führen, dass wir das Hamsterrad nur schneller drehen, dann haben wir versagt. Dann sind all die neuen proklamierten Skills wertlos. Wenn wir sie aber nutzen, um Teilhabe zu ermöglichen, um Hürden abzubauen, um Menschen, die nicht Technik affin sind, den Zugang zur Gesellschaft zu erleichtern – dann, und nur dann, ist das Fortschritt.
Die Wiederentdeckung der Reibung
Im Kompetenzmodell der Zukunft brauchen wir einen Bereich, der „Sozial-kommunikative Kompetenz“ heißt. Darunter fallen Dinge wie „Konfliktlösung“ und „Kollaboration“. Die allgemeine Meinung warnt davor, dass wir die menschliche Note verlieren. Aber wir verstehen Menschlichkeit heute als eine Art „Human Premium“ – als wäre Menschlichkeit ein Luxusprodukt, das man sich leisten können muss.
Ich glaube, wir müssen radikaler denken. KI ist eine Maschine zur Vermeidung von Reibung. Sie glättet alles. Sie gibt uns die Antworten, die wir hören wollen. Sie schreibt Texte, die niemanden beleidigen. Sie nimmt uns die Mühsal des Denkens und des Formulierens ab. Aber Reibung ist wichtig. Demokratie ist Reibung. Eine Beziehung ist Reibung. Erkenntnis entsteht fast immer aus Reibung, aus dem Zusammenprall unterschiedlicher Ideen. Wenn wir uns alle hinter unseren KI-Agenten verschanzen, die für uns kommunizieren, verhandeln und entscheiden, dann verlieren wir die Fähigkeit zur Auseinandersetzung – und damit auch zur persönlichen wie unternehmerischen und auch gesellschaftlichen Weiterentwicklung.
Die wichtigste Kompetenz der Zukunft ist vielleicht die „Konfliktfähigkeit im Analogen“. Es ist die Fähigkeit, mit einem echten Menschen in einem echten Raum zu sitzen, eine Meinung zu hören, die man absolut furchtbar findet, und trotzdem sitzen zu bleiben. Nicht zu blocken, nicht zu entfolgen, nicht den Bot eine passive-aggressive Antwort schreiben zu lassen. Sondern zuzuhören. Das können Sie nicht an eine KI delegieren – die kann wiederum für uns recherchieren und Gedanken ordnen. Aber erst müssen wir diese Gedanken mal hören und auch die Emotionen und Zusammenhänge dahinter verstehen. Und nach der KI-Antwort müssen wir diese wiederum analysieren und in unseren Alltags-Kontext einordnen.
Wir brauchen Belastbarkeit (aus dem Bereich der Aktivitäts-Kompetenz). Aber nicht Belastbarkeit im Sinne von „Ich kann 16 Stunden arbeiten“, sondern Belastbarkeit im Sinne von „Ich ertrage Ambiguität“. Ich ertrage es, dass die Welt komplex ist und es keine einfachen Antworten gibt, auch wenn ChatGPT mir eine einfache Antwort in drei Sekunden generieren kann.
Genießen wir das Unperfekte
Also, was machen wir nun mit dem Jahr 2026? Sollen wir die „Future-Skills“ auswendig lernen? Sollen wir uns alle zu „Orchestratoren“ umschulen lassen?
Ich schlage etwas anderes vor. Lassen Sie uns die Technologie nutzen. Seien wir nicht naiv. KI ist ein mächtiges Werkzeug, und es wäre dumm, es zu ignorieren. Nutzen Sie es, um den Müll aus Ihrem Leben zu räumen. Lassen Sie die KI die Spesenabrechnung machen. Lassen Sie sie die Zusammenfassung des 50-seitigen Berichts schreiben, den eh keiner lesen wollte.
Aber verwechseln Sie niemals das Werkzeug mit dem Zweck. Ihr Zweck ist es nicht, ein optimierter Prozessor von Informationen zu sein. Investieren Sie in die Kompetenzen, die keine Halbwertszeit haben. Investieren Sie in Ihr Urteilsvermögen: Lesen Sie Bücher, die vor 1900 geschrieben wurden. Reisen Sie an Orte, wo es kein WLAN gibt. Sprechen Sie mit Leuten, die nicht in Ihrer Filterblase sind. Investieren Sie in Ihre Eigenverantwortung: Treffen Sie Entscheidungen, auch wenn sie falsch sein könnten. Ein Fehler, den Sie selbst gemacht haben, lehrt Sie mehr als ein Erfolg, den eine Maschine für Sie errechnet hat. Investieren Sie in menschliche Kollaboration: Bauen Sie Netzwerke (vor allem auch in Unternehmen), die auf Vertrauen basieren, nicht auf LinkedIn-Kontakten oder „Skill-Sets“.
Wir brauchen keine Gesellschaft von hochgetunten Einzelkämpfern mit perfekten „Skill Stacks“. Das ist eine Fantasie von Leuten, die das Leben für ein Videospiel halten. Wir brauchen eine Gesellschaft von erwachsenen Bürgern, die Technik verstehen, aber sich nicht von ihr diktieren lassen, wie sie zu leben haben.
Atmen Sie durch. Bleiben Sie unperfekt. Bleiben Sie langsam, wenn es darauf ankommt. Und vor allem: Bleiben Sie widerspenstig. Das ist der einzige „Skill“, vor dem die Algorithmen wirklich Respekt haben. Denn Eigensinn lässt sich nicht berechnen. Und genau das ist unsere letzte, beste Bastion.