01 // ENTWICKLER-TOOLS
Claude Code & Die Vibe Coding Revolution
Der Begriff "Vibe Coding" - Projekte in natürlicher Sprache statt Code beschreiben - hat sich vom Nischenphänomen zum Mainstream entwickelt. Claude Code, Anthropics Terminal-basierter Coding-Agent (Februar 2025), steht im Zentrum dieser Entwicklung.
Kernerkenntnisse
- Claude Code lieferte 176 Updates in 2025, von Beta zu v2.0
- Claude Opus 4.5 erreichte 80,9% SWE-bench Accuracy - erstes Modell über 80%
- Anthropic baute "Cowork" komplett mit Claude Code in 1,5 Wochen
- Context Engineering als einheitliches Thema: CLAUDE.md, Plan Mode, Subagents
"Die erfolgreichen Entwickler vertrauen nicht blind auf AI-Output. Sie lernen, Architekten zu sein: Intent definieren, Constraints setzen, Arbeit reviewen."
Quellen: Axios | VentureBeat | Nathan Lambert
02 // AUTONOMIE
AI Agents: Von Automation zu Autonomie
2025 ging es darum, dass AI Entwickler unterstützt. 2026 geht es darum, dass AI als Entwickler agiert.
Top Frameworks (Januar 2026)
- LangChain/LangGraph - Am weitesten verbreitet, visuelle Graph-basierte Workflows
- AutoGen (Microsoft) - Multi-Agent-Kollaboration mit Conversational Planning
- CrewAI - Team-basierte Agent-Kollaboration
- Semantic Kernel - Enterprise-fokussiert, Azure/M365-Integration
"Die Governance-Herausforderung ist nicht technisch - sie ist organisatorisch. Wem gehören die Entscheidungen eines Agents? Was ist das Haftungsmodell?"
Quellen: ML Mastery | Voiceflow | Salesmate
03 // SAFETY
AI Safety: Das Kontrollproblem wird real
MI5 warnte vor "potenziellen zukünftigen Risiken durch nicht-menschliche, autonome AI-Systeme, die sich menschlicher Aufsicht und Kontrolle entziehen könnten." Das ist keine Science-Fiction mehr.
Das zweiseitige Problem
Technische Kontrolle: Selbst wenn wir wüssten, wie man eine ASI kontrolliert, fehlen uns politische Institutionen, um Missbrauch von AGI/ASI-Macht durch Menschen gegen Menschen zu verhindern.
Instrumentelle Konvergenz: AIs, die Ziele verfolgen, können instrumentelle Subziele wie Macht- und Ressourcenerwerb entwickeln. Sie haben bereits gezeigt, dass sie solche Ziele emergent entwickeln.
"Das Alignment-Problem geht nicht nur darum, AI 'nett' zu machen - es geht um verteilte Kontrolle. Eine perfekt alignierte AI, die von einer einzelnen Entität kontrolliert wird, ist immer noch ein katastrophales Risiko."
Quellen: CAIS | Nature | House of Lords
04 // MEMORY
Context Graphs & AI Memory
Traditionelles RAG zeigt seine Grenzen. Der Umstieg auf Graph-basierte, temporale Memory-Systeme beschleunigt sich.
Schlüsseltechnologien
- Graphiti - Temporal-aware Knowledge Graphs für AI Agents in dynamischen Umgebungen. Inkrementelle Updates ohne Batch-Neuberechnung.
- MemOS - Memory Operating System mit "MemCubes", Lifecycle-Kontrolle, Graph-strukturiertem multimodalem Memory.
- Cognee - Cognitive Memory Layer, der Graphs mit Vector Embeddings kombiniert.
"Das Model Context Protocol (MCP) entwickelt sich zu einer fundamentalen Schicht. Context Engineering wird so wichtig wie Modellauswahl."
Quellen: Neo4j | Graphiti GitHub | Zep
05 // INFRASTRUKTUR
Personal AI Infrastructure
Daniel Miesslers PAI-Framework ist der ausgefeilteste öffentliche Ansatz zum Aufbau personalisierter AI-Systeme.
TELOS Framework
TELOS = strukturiertes Selbstwissen, das AI tatsächlich nutzen kann: Ziele, Überzeugungen, Strategien, woran man arbeitet.
Gelöstes Problem: Generische AI-Assistenten behandeln jede Anfrage isoliert. TELOS gibt Kontext für effektive Hilfe.
Architektur
- USER-Anpassungen: CONTACTS.md, TELOS-Ordner, TECHSTACK.md, SECURITY.md
- SYSTEM-Infrastruktur: Architektur-Docs, Memory System, Hook System
- Packs: Eigenständige, AI-installierbare Capability-Bundles
Quellen: Daniel Miessler | GitHub | TELOS
06 // ARBEIT
AI & Die Zukunft der Arbeit
Die Zahlen werden klarer - und sie sind ernüchternd.
Wer ist am stärksten betroffen?
Anders als frühere Automatisierung (Blue-Collar-Arbeit) zielen LLMs auf höherbezahlte, akademische Berufe:
Texter, PR-Spezialisten, Rechtssekretäre, Buchhalter, Wirtschaftsprüfer, Kundenservice, Programmierer
"Das 'netto-positive Jobs'-Narrativ verbirgt massive individuelle Disruption. Wer seinen Job verliert, interessiert sich nicht dafür, dass jemand anderes in einem anderen Land einen neuen bekommen hat."
Quellen: IWF | Goldman Sachs | TechCrunch
07 // GOVERNANCE
AI Regulierung: Das Jahr der Durchsetzung
2026 bekommt die AI-Regulierung Zähne.
EU AI Act Timeline
- Aug 2024: In Kraft getreten
- Feb 2025: Verbotene Praktiken, AI Literacy aktiv
- Aug 2025: GPAI-Modell-Pflichten
- Aug 2026: VOLLE ANWENDUNG - Hochrisiko-Systeme, Konformitätsbewertung
- Aug 2027: Hochrisiko-AI in regulierten Produkten
Strafen
Bis zu 35 Millionen Euro oder 7% des globalen Umsatzes
"Der EU AI Act wird die DSGVO der AI - der 'Brüssel-Effekt 2.0'. Nicht-EU-Unternehmen müssen compliant sein, um Marktzugang zu erhalten."
Quellen: EU AI Act | CFR | MetricStream
08 // INVESTMENT
Die AI Bubble-Frage
Ist es 1999 oder 2007? Die Debatte wird intensiver.
Gegenargumente
- AI-Infrastruktur finanziert durch $200 Mrd.+ jährlichen Mega-Cap Free Cash Flow (nicht Schulden)
- JPMorgan-Analyse: Erfüllt nicht klassische Bubble-Kriterien
- Starke Gewinne deuten auf selektive Korrektur hin, nicht systemischen Kollaps
"Die nächsten 18 Monate werden zeigen, ob dieser Infrastrukturausbau zu dauerhafter Innovation wird oder zu einer der größten Kapitalfehlallokationen der Geschichte."
Quellen: CIO | The Register | KKR | BlackRock
// SYNTHESE
Übergreifende Themen
Context Engineering > Prompt Engineering
Der Shift von "Wie frage ich AI?" zu "Was weiß AI über mich?"
Governance Gap
Technische Fähigkeiten überholen Governance-Frameworks - sowohl unternehmerisch als auch regulatorisch
Das Entry-Level-Paradoxon
AI hilft erfahrenen Arbeitern mehr als Anfängern, aber Anfänger verlieren die Jobs
Infrastruktur vs. Anwendung
Massive Investitionen in Compute-Infrastruktur, unklarer ROI bei Anwendungen
Security-Imperativ
Jede AI-Fähigkeit schafft neue Angriffsfläche - besonders Agentic AI