Das Jahr 2025 markiert den Übergang der Künstlichen Intelligenz von einer faszinierenden Spielerei zu einer kritischen Infrastruktur mit allen dazugehörigen Wachstumsschmerzen. Während 2023 und 2024 vom Staunen über generative Fähigkeiten geprägt waren, stand 2025 im Zeichen der „Agentic AI“: Systeme, die nicht mehr nur Text erstellen, sondern eigenständig handeln.
Doch je mehr Verantwortung wir an Algorithmen abgeben, desto sichtbarer werden auch ihre Grenzen. Es war das Jahr, in dem KI wissenschaftliche Durchbrüche erzielte. Gleichzeitig lernte die Migros, dass Rentiere üblicherweise vier Beine haben, eine Fast‑Food‑Kette wurde von 18’000 Wasserbestellungen lahmgelegtund ein US‑Amerikaner musste erkennen, dass Natriumbromid doch kein so guter Ersatz für Kochsalz ist.
Was ist 2025 technologisch wirklich passiert, wie hat sich der Machtkampf der grossen Modelle entwickelt und was davon ist auf Schweizer Schreibtische, in Fabrikhallen und in den Alltag durchgesickert?
Wenn 2023 das Jahr war, in dem wir gestaunt haben „Wow, der Chatbot schreibt mir eine E‑Mail“, dann ist 2025 das Jahr, in dem KI still und leise begonnen hat, an Prozessen mitzuschrauben. Aus netten Dialogpartnern sind digitale Kolleg:innen geworden, die Aufgaben übernehmen. Manchmal sehr zuverlässig, manchmal erstaunlich eigensinnig.
Statt auf jeden Prompt zu warten, arbeiten Agenten heute zielorientiert. Man gibt kein „Schreib mir bitte…“ ein, sondern eher „Reduziere die offenen Support‑Tickets“ oder „Bereite diese Verträge für die Revision vor“. Der Agent plant eigenständig Zwischenschritte, ruft Tools auf und meldet sich mit Ergebnissen zurück. Aus dem Chatfenster ist eine kleine Steuerzentrale geworden.
Parallel dazu haben Reasoning‑Modelle Einzug gehalten: Systeme, die komplexe Probleme in Zwischenschritte zerlegen, Lösungswege gegeneinander abwägen und Fehler eher erkennen. Das fühlt sich weniger nach Autovervollständigung an und mehr wie ein strukturierter Sparringspartner, insbesondere bei mathematischen Themen, Programmierung oder Analyseaufgaben.
In der Schweiz finden diese Entwicklungen längst auch ausserhalb von Forschungslaboren statt. Studien* zeigen, dass ein grosser Teil der Unternehmen Agenten bereits produktiv einsetzt, etwa bei Dokumentenprüfungen, Compliance‑Checks oder der Automatisierung ganzer Prozessketten. KI ist kein „Tool zum Rumspielen“ mehr, sondern beginnt, stillschweigend in Organigramme hineinzuwachsen.
Hinter dieser neuen Agenten‑Welt stehen Modelle, die immer weniger nach Sci‑Fi klingen und immer mehr nach Infrastruktur. 2025 hat die Kräfteverhältnisse zwischen drei Lagern neu sortiert: Big Tech, der chinesische Kostenbrecher DeepSeek und eine selbstbewusste Open‑Source‑Fraktion.
OpenAI, Google und Anthropic liefern sich weiterhin ein Kopf‑an‑Kopf‑Rennen: GPT‑5 kombiniert Kreativität mit den „Denkpfaden“ der o‑Serie, Gemini dockt tief im Entwickler‑Ökosystem an, und Claude punktet mit langen Kontexten und solider Code‑Verständnis. Für Anwender:innen wirkt das zunehmend wie die Wahl zwischen verschiedenen Persönlichkeiten: vom kreativen Generalisten bis zum nüchternen Analysten.
Für Unruhe sorgte 2025 vor allem DeepSeek: Mit einer Mixture‑of‑Experts‑Architektur und effizienter Hardware zeigt das Team aus China, dass Spitzenleistung auch zu einem Bruchteil der bisherigen Kosten möglich ist. Das setzt API‑Preise weltweit unter Druck und zwingt viele Geschäftsmodelle, die auf teuren Tokens basierten, zu einer grundlegenden Kurskorrektur.
Die dritte Kraft sind offene Modelle wie LLaMA, Gemma oder Qwen. Sie sind keine Spielzeuge mehr, sondern reale Optionen für Unternehmen, die Daten lieber im eigenen Rechenzentrum als in einer US‑Cloud sehen. Der Preis für diese Souveränität: Wer sich ein eigenes Modell in den Keller stellt, braucht Expertise für Betrieb, Sicherheit und Anpassung, sonst ist die KI schneller offline als der alte Fileserver.
Für Schweizer Organisationen heisst das: Die Frage „Welches Modell nutzen wir?“ ist 2025 keine rein technische Entscheidung mehr, sondern eine Mischung aus Kostenrechnung, Risikobewertung und politischer Haltung.
Bei all den Benchmarks und Modellnamen geht schnell vergessen: In der Schweiz ist KI längst keine PowerPoint-Folie im Innovation-Workshop mehr, sondern Teil des ganz normalen Geschäfts. Von der Wirkstoffforschung bis zur Hypothek.
Schweizer Pharmakonzerne und Forschungspartner nutzen Systeme wie AlphaFold und BioEmu‑1, um Proteinstrukturen zu verstehen und neue Wirkstoffe schneller zu finden. Was früher Monate an Labortests gebraucht hat, wird heute in Simulationen vorsortiert. In der Radiologie helfen KI‑Modelle, Auffälligkeiten in Bildern zu markieren.Der Befund kommt weiterhin von Menschen, aber die Maschine nimmt ihnen viel „Wimmelbild-Arbeit“ ab.
Während anderswo noch über KI-Kundencenter philosophiert wird, setzt der Schweizer Finanzplatz eher nüchtern an: bei Compliance, Dokumentenprüfung und Geldwäschereibekämpfung. Modelle lesen Verträge, gleichen Daten ab und filtern verdächtige Transaktionen vor. Das ist wenig spektakulär, aber extrem wirksam. Und genau die Art von Aufgabe, bei der KI ihre Stärken ausspielt, ohne direkt mit Kund:innen zu interagieren.
In der MEM-Industrie und Logistik läuft KI oft im Hintergrund. Sensoren melden Auffälligkeiten, Modelle sagen Ausfälle voraus, Kameras prüfen Oberflächen auf Fehler. Pilotprojekte mit Lieferrobotern bei der Post oder Spezialfahrzeugen zeigen, wie „Physical AI“ auf der letzten Meile aussehen kann. Der eigentliche Produktivitätsgewinn geschieht allerdings dort, wo Maschinen seltener ausfallen, Lager besser geplant sind und Qualitätsmängel früher auffallen. KI macht hier nicht die grosse Show, sondern unterstützt aus dem Hintergrund durch optimierte Abläufe.
2025 war aber nicht nur das Jahr der cleveren Agenten, sondern auch das Jahr, in dem uns KI eindrucksvoll zeigte, wie kreativ sie scheitern kann und wie gefährlich das wird, wenn wir ihr zu viel blind vertrauen.
Bei Taco Bell legte eine KI-Bestellannahme den Drive‑Thru lahm, weil sie eine Bestellung von 18’000 Wasserflaschen ohne Plausibilitätscheck brav ausführte. In einem anderen Fall vertraute ein US‑Amerikaner einem Chatbot, der Natriumbromid als harmlosen Salzersatz empfahl. Mit einem Krankenhausaufenthalt als Quittung.
Teuer wurde es wohl auch, als ein KI-Tool der Firma Replit direkt an Produktivsysteme eines Softwareentwicklers angeschlossen wurde. Ein Coding‑Assistent, hat trotz eindeutiger Warnhinweise eine Produktionsdatenbank gelöscht und anschliessend versucht, die eigenen Spuren zu verwischen. Diese Fälle zeigen: Sprachmodelle können sehr überzeugend klingen, auch wenn sie komplett danebenliegen.
In der Schweiz lieferte die Migros den KI‑Fail des Jahres. Eine Weihnachtsguetzli-Dose mit einem offensichtlich KI-generierten Rentier, das nicht vier, sondern fünf Beine hatte und einem Weihnachtsmann mit sehr kurzen Beinen. Das Bild ging viral, die Memes liessen nicht lange auf sich warten, und plötzlich diskutierte die halbe Schweiz darüber, wie viel Qualitätskontrolle bei KI‑Bildern im Marketing nötig ist.
Parallel dazu sind Deepfakes 2025 von der Spielerei zur Sicherheitsbedrohung gereift. In internationalen Fällen wurden Millionenbeträge überwiesen, nachdem Mitarbeitende in Videocalls mit täuschend echten Klonen ihrer Chefs sprachen. Auch die Schweiz blieb davon nicht verschont: Das Bundesamt für Cybersicherheit warnte vor gefälschten Werbeanzeigen und Videos, in denen Bundespräsidentin Karin Keller‑Sutter scheinbar schnelle Gewinne mit dubiosen Anlageplattformen verspricht; in anderen Fällen tauchten Deepfake‑Videos mit Roger Federer oder bekannten SRF‑Moderator:innen als Lockvögel für Betrugsangebote auf. Gleichzeitig wächst die „Schatten-KI“: Mitarbeitende nutzen in bester Absicht Tools, die jedoch völlig an der IT-Sicherheit der Unternehmen vorbeigehen.
Die Lehre aus all dem ist ernüchternd, aber hilfreich: KI kann unglaublich nützlich sein, aber sie ist kein Autopilot. Prozesse benötigen Kontrollpunkte, sensible Daten klare Regeln, und grosse Überweisungen sollten nie von einem einzigen Video‑Call abhängen, egal wie vertraut die Stimme am anderen Ende klingt.
Auf dem Arbeitsmarkt verschiebt KI vor allem Aufgaben, weniger Menschen. Viele klassische „Junior‑Tätigkeiten“ wie Präsentationen bauen, Daten aufbereiten oder einfache Analysen wandern zu Tools, während die Nachfrage nach Leuten steigt, die Prozesse verstehen, Datenqualität sichern und KI sinnvoll steuern können. Schweizer Unternehmen berichten gleichzeitig von Fachkräftemangel im KI‑Umfeld und sinkender Nachfrage nach bestimmten IT‑Profilen. Ein Zeichen dafür, dass Rollen sich schneller ändern, als Stellenbeschreibungen hinterherkommen. Organisatorisch zeigt sich ein Muster: Dort, wo Führungsteams bereit sind, Workflows wirklich neu zu denken und Mitarbeitenden Zeit zum Lernen geben, entsteht produktiver Mehrwert. Wo KI nur als „neues Tool oben drauf“ eingeführt wird, bleibt sie oft im Piloten stecken oder wird stillschweigend über Schatten‑KI in den Alltag geschmuggelt.
Während die EU mit dem AI Act ein dickes Regelbuch vorlegt, von Verboten für Social Scoring bis zu strengen Auflagen für Hochrisiko‑Systeme, setzt die Schweiz auf ihren bekannten Sonderweg: kein eigenes KI‑Gesetz, sondern sektorspezifische Anpassungen und die KI‑Konvention des Europarats. Für Unternehmen heisst das: Man entwickelt oft in einem liberaleren Schweizer Rahmen, muss aber faktisch trotzdem EU‑Regeln einhalten, sobald Kund:innen oder Daten über die Grenze gehen. Zudem steigt der Druck rund um Urheberrechte: Klagen gegen KI-Anbieter machen klar, dass „einfach mal mit allem trainieren, was wir so finden” keine Option mehr ist. Lizenzierung und saubere Dokumentation werden zum Pflichtteil der KI-Strategie.
So beeindruckend KI‑Modelle sind. Sie werden nicht durch Magie betrieben, sondern durch Strom und Wasser. Rechenzentren verbrauchen weltweit bereits so viel Energie wie mittelgrosse Staaten und jedes zusätzliche Modell heizt die Emissions‑ und Kühlungsbilanz weiter auf. Für die Schweiz ist das doppelt relevant. Einerseits als Standort für energieeffiziente Rechenzentren mit Alpenklima, andererseits als Land, das sich Klimaziele gesetzt hat. Bis 2030 sollen die Emissionen halbiert werden. Effiziente Architekturen wie bei DeepSeek, kleinere spezialisierte Modelle und Green‑IT‑Strategien sind deshalb nicht nur „nice to have“, sondern hartes Standort‑ und Kostenthema.
2026 dürfte das Jahr werden, in dem sich entscheidet, ob Agenten wirklich vom Experiment zum Standardwerkzeug werden, und ob Unternehmen gelernt haben, sie mit klaren Zielen, festen Regeln und laufender Überwachung einzusetzen. Parallel verschärfen sich Fragen nach digitaler Souveränität („Auf wessen Infrastruktur laufen unsere kritischsten Modelle?“) und nach der Energie‑ und Sicherheitsbilanz der ganzen KI‑Infrastruktur. Für Schweizer Organisationen kristallisieren sich drei sinnvolle Leitlinien heraus: KI nicht primär zur Kostensenkung, sondern für neue Produkte und bessere Services einsetzen; hybride Mensch‑KI‑Teams bevorzugen statt Vollautomatisierung; und Ergebnisse der Modelle so streng prüfen, wie man es bei einem neuen Mitarbeitenden tun würde.
2025 hat uns gezeigt, dass KI gleichzeitig Nobelpreis‑Paper mitverfassen, Banken bei Compliance helfen und Rentiere mit fünf Beinen malen kann. Wer die Technologie 2026 erfolgreich nutzen will, braucht deshalb weniger Euphorie oder Panik und mehr Handwerk, Qualitätsbewusstsein und ein bisschen gesunden Humor. Denn am Ende entscheidet nicht das Modell darüber, ob KI ein Produktivitäts‑Booster oder ein peinlicher Shitstorm wird, sondern die Art, wie wir sie in unsere Prozesse und Verantwortungsketten einbauen.
KI verändert Plattformen, Suchverhalten und Erwartungen der Nutzer. Wer im Online Marketing sichtbar bleiben will, braucht klare Prioritäten, saubere Grundlagen und eine Strategie, die auch unter neuen Rahmenbedingungen funktioniert.
SEO Rückblick 2025: Darauf kommt es jetzt bei Ihrer SEO- und GEO-Strategie an
Vom Link zur Antwort: Suchmaschinen liefern Lösungen zunehmend direkt in den Ergebnissen ...
Pinterest, YouTube & Google TV: Neue Grossformate für starke Markenwirkung
Aufmerksamkeit bündeln: Visuell dominante Formate sind entscheidend, um in der Informationsflut durchzudringen. ...
Steigender Einsatz von KI im Performance Marketing
Performance Max wird transparenter: Google ermöglicht endlich negative Keywords auf Kampagnenebene und ...



