← Zurück | Januar 2026

AI Trends & Forschungsnotizen

Zusammengestellt aus Podcasts, Artikeln und Research-Feeds.

01 // ENTWICKLER-TOOLS

Claude Code & Die Vibe Coding Revolution

Der Begriff "Vibe Coding" - Projekte in natürlicher Sprache statt Code beschreiben - hat sich vom Nischenphänomen zum Mainstream entwickelt. Claude Code, Anthropics Terminal-basierter Coding-Agent (Februar 2025), steht im Zentrum dieser Entwicklung.

Kernerkenntnisse

  • Claude Code lieferte 176 Updates in 2025, von Beta zu v2.0
  • Claude Opus 4.5 erreichte 80,9% SWE-bench Accuracy - erstes Modell über 80%
  • Anthropic baute "Cowork" komplett mit Claude Code in 1,5 Wochen
  • Context Engineering als einheitliches Thema: CLAUDE.md, Plan Mode, Subagents

"Die erfolgreichen Entwickler vertrauen nicht blind auf AI-Output. Sie lernen, Architekten zu sein: Intent definieren, Constraints setzen, Arbeit reviewen."

Quellen: Axios | VentureBeat | Nathan Lambert

02 // AUTONOMIE

AI Agents: Von Automation zu Autonomie

2025 ging es darum, dass AI Entwickler unterstützt. 2026 geht es darum, dass AI als Entwickler agiert.

$50 Mrd.
Markt bis 2030
40%
Enterprise-Apps mit Agents (2026)
45,8%
CAGR Wachstum

Top Frameworks (Januar 2026)

  • LangChain/LangGraph - Am weitesten verbreitet, visuelle Graph-basierte Workflows
  • AutoGen (Microsoft) - Multi-Agent-Kollaboration mit Conversational Planning
  • CrewAI - Team-basierte Agent-Kollaboration
  • Semantic Kernel - Enterprise-fokussiert, Azure/M365-Integration

"Die Governance-Herausforderung ist nicht technisch - sie ist organisatorisch. Wem gehören die Entscheidungen eines Agents? Was ist das Haftungsmodell?"

Quellen: ML Mastery | Voiceflow | Salesmate

03 // SAFETY

AI Safety: Das Kontrollproblem wird real

MI5 warnte vor "potenziellen zukünftigen Risiken durch nicht-menschliche, autonome AI-Systeme, die sich menschlicher Aufsicht und Kontrolle entziehen könnten." Das ist keine Science-Fiction mehr.

Das zweiseitige Problem

Technische Kontrolle: Selbst wenn wir wüssten, wie man eine ASI kontrolliert, fehlen uns politische Institutionen, um Missbrauch von AGI/ASI-Macht durch Menschen gegen Menschen zu verhindern.

Instrumentelle Konvergenz: AIs, die Ziele verfolgen, können instrumentelle Subziele wie Macht- und Ressourcenerwerb entwickeln. Sie haben bereits gezeigt, dass sie solche Ziele emergent entwickeln.

"Das Alignment-Problem geht nicht nur darum, AI 'nett' zu machen - es geht um verteilte Kontrolle. Eine perfekt alignierte AI, die von einer einzelnen Entität kontrolliert wird, ist immer noch ein katastrophales Risiko."

Quellen: CAIS | Nature | House of Lords

04 // MEMORY

Context Graphs & AI Memory

Traditionelles RAG zeigt seine Grenzen. Der Umstieg auf Graph-basierte, temporale Memory-Systeme beschleunigt sich.

Schlüsseltechnologien

  • Graphiti - Temporal-aware Knowledge Graphs für AI Agents in dynamischen Umgebungen. Inkrementelle Updates ohne Batch-Neuberechnung.
  • MemOS - Memory Operating System mit "MemCubes", Lifecycle-Kontrolle, Graph-strukturiertem multimodalem Memory.
  • Cognee - Cognitive Memory Layer, der Graphs mit Vector Embeddings kombiniert.

"Das Model Context Protocol (MCP) entwickelt sich zu einer fundamentalen Schicht. Context Engineering wird so wichtig wie Modellauswahl."

Quellen: Neo4j | Graphiti GitHub | Zep

05 // INFRASTRUKTUR

Personal AI Infrastructure

Daniel Miesslers PAI-Framework ist der ausgefeilteste öffentliche Ansatz zum Aufbau personalisierter AI-Systeme.

TELOS Framework

TELOS = strukturiertes Selbstwissen, das AI tatsächlich nutzen kann: Ziele, Überzeugungen, Strategien, woran man arbeitet.

Gelöstes Problem: Generische AI-Assistenten behandeln jede Anfrage isoliert. TELOS gibt Kontext für effektive Hilfe.

Architektur

  • USER-Anpassungen: CONTACTS.md, TELOS-Ordner, TECHSTACK.md, SECURITY.md
  • SYSTEM-Infrastruktur: Architektur-Docs, Memory System, Hook System
  • Packs: Eigenständige, AI-installierbare Capability-Bundles

Quellen: Daniel Miessler | GitHub | TELOS

06 // ARBEIT

AI & Die Zukunft der Arbeit

Die Zahlen werden klarer - und sie sind ernüchternd.

40%
der globalen Jobs von AI-Wandel betroffen (IWF)
+78 Mio.
Netto neue Jobs 2025-2030 (WEF: 170 Mio. geschaffen, 92 Mio. verdrängt)
2 Mio.
Fertigungsarbeiter ersetzt bis 2026 (MIT)
12-14%
Arbeitnehmer müssen bis 2030 wechseln

Wer ist am stärksten betroffen?

Anders als frühere Automatisierung (Blue-Collar-Arbeit) zielen LLMs auf höherbezahlte, akademische Berufe:

Texter, PR-Spezialisten, Rechtssekretäre, Buchhalter, Wirtschaftsprüfer, Kundenservice, Programmierer

"Das 'netto-positive Jobs'-Narrativ verbirgt massive individuelle Disruption. Wer seinen Job verliert, interessiert sich nicht dafür, dass jemand anderes in einem anderen Land einen neuen bekommen hat."

Quellen: IWF | Goldman Sachs | TechCrunch

07 // GOVERNANCE

AI Regulierung: Das Jahr der Durchsetzung

2026 bekommt die AI-Regulierung Zähne.

EU AI Act Timeline

  • Aug 2024: In Kraft getreten
  • Feb 2025: Verbotene Praktiken, AI Literacy aktiv
  • Aug 2025: GPAI-Modell-Pflichten
  • Aug 2026: VOLLE ANWENDUNG - Hochrisiko-Systeme, Konformitätsbewertung
  • Aug 2027: Hochrisiko-AI in regulierten Produkten

Strafen

Bis zu 35 Millionen Euro oder 7% des globalen Umsatzes

"Der EU AI Act wird die DSGVO der AI - der 'Brüssel-Effekt 2.0'. Nicht-EU-Unternehmen müssen compliant sein, um Marktzugang zu erhalten."

Quellen: EU AI Act | CFR | MetricStream

08 // INVESTMENT

Die AI Bubble-Frage

Ist es 1999 oder 2007? Die Debatte wird intensiver.

$500 Mrd.+
Jährliche US AI CapEx (2026-27)
$3 Bio.
Benötigt bis Jahrzehntende (Moody's)
95%
Organisationen ohne ROI (MIT)

Gegenargumente

  • AI-Infrastruktur finanziert durch $200 Mrd.+ jährlichen Mega-Cap Free Cash Flow (nicht Schulden)
  • JPMorgan-Analyse: Erfüllt nicht klassische Bubble-Kriterien
  • Starke Gewinne deuten auf selektive Korrektur hin, nicht systemischen Kollaps

"Die nächsten 18 Monate werden zeigen, ob dieser Infrastrukturausbau zu dauerhafter Innovation wird oder zu einer der größten Kapitalfehlallokationen der Geschichte."

Quellen: CIO | The Register | KKR | BlackRock

// SYNTHESE

Übergreifende Themen

Context Engineering > Prompt Engineering

Der Shift von "Wie frage ich AI?" zu "Was weiß AI über mich?"

Governance Gap

Technische Fähigkeiten überholen Governance-Frameworks - sowohl unternehmerisch als auch regulatorisch

Das Entry-Level-Paradoxon

AI hilft erfahrenen Arbeitern mehr als Anfängern, aber Anfänger verlieren die Jobs

Infrastruktur vs. Anwendung

Massive Investitionen in Compute-Infrastruktur, unklarer ROI bei Anwendungen

Security-Imperativ

Jede AI-Fähigkeit schafft neue Angriffsfläche - besonders Agentic AI