Birow News und Analysen durchsuchen

Ockhams Rasiermesser

Gábor Bíró 24. April 2025 12 Min. Lesezeit

Ockhams Rasiermesser, das Prinzip, das oft als „die einfachste Erklärung ist meist die beste“ zusammengefasst wird, ist eine der nützlichsten und praktischsten Heuristiken im menschlichen Denken.

Die KI-Singularität

Gábor Bíró 23. April 2025 8 Min. Lesezeit

Der Begriff „Singularität“ hat den wissenschaftlichen Nischendiskurs verlassen und ist zu einem wiederkehrenden Motiv in der Populärkultur geworden, das in Filmen, Nachrichtenartikeln und öffentlichen Debatten prominent vertreten ist. Oft mit dramatischer Note dargestellt, ruft er Bilder von außer Kontrolle geratener künstlicher Intelligenz und einer grundlegend veränderten menschlichen Existenz hervor. Obwohl manchmal sensationalisiert, verdient das zugrunde liegende Konzept ernsthafte Beachtung, insbesondere da die Fortschritte in der Künstlichen Intelligenz (KI) sich beschleunigen.

Die Cruise-Reise: Von vorsichtigen Robotaxi-Neustartplänen zur GM-Integration

Gábor Bíró 15. April 2025 5 Min. Lesezeit

Die autonome Fahrzeugtochter von General Motors, Cruise, schlug nach einem schwerwiegenden Vorfall im Oktober 2023 einen schwierigen Weg ein. Die ersten Bemühungen konzentrierten sich auf einen schrittweisen Neustart des Betriebs, den Wiederaufbau von Vertrauen und die Verbesserung der Sicherheit, nachdem ein Vorfall, bei dem ein Fußgänger mitgeschleift wurde, zu einer landesweiten Stilllegung geführt hatte. Nachfolgende strategische Kursänderungen von GM veränderten jedoch die Entwicklung von Cruise dramatisch und gipfelten in der Aufgabe der unabhängigen Robotaxi-Ambitionen Ende 2024 und Anfang 2025.

Das Nullsummenspiel: Wettbewerb und die Illusion des Gewinns

Gábor Bíró 19. März 2025 15 Min. Lesezeit

Die Spieltheorie, das mathematische Modell strategischer Entscheidungsfindung, arbeitet mit zahlreichen Begriffen, die helfen, die Dynamik von Interaktionen zu verstehen. Einer der wichtigsten und am häufigsten genannten ist das Nullsummenspiel. Dieses Konzept beschreibt Situationen, in denen der Gewinn eines Akteurs zwangsläufig den Verlust eines anderen Akteurs bedeutet und der gesamte „Gewinn“ konstant ist, nämlich null. Nullsummenspiele sind grundlegende Modelle für Wettbewerb und Konflikt und in vielen Bereichen relevant, vom Sport über die Wirtschaft bis hin zur Politik.

Das Uncanny Valley: Wenn Roboter zu menschlich werden

Gábor Bíró 11. März 2025 8 Min. Lesezeit

Haben Sie schon einmal einen Roboter, eine animierte Figur oder sogar eine Videospielfigur gesehen, die so lebensecht war, dass sie sich fast ... beunruhigend anfühlte? Fiel es Ihnen schwer zu erkennen, ob sie menschlich war oder nicht, und hat diese Unsicherheit ein seltsames, unheimliches Gefühl ausgelöst? Wenn ja, dann haben Sie wahrscheinlich das Phänomen des „Uncanny Valley“ erlebt. Aber was genau ist das, und warum löst es eine so starke Reaktion in uns aus?

Die Effizienzfalle

Gábor Bíró 5. März 2025 4 Min. Lesezeit

Haben Sie sich jemals gefragt, warum moderne Technologie, die unser Leben eigentlich erleichtern und uns Zeit sparen soll, nicht wirklich zu mehr Freizeit führt? Warum arbeiten wir genauso viel oder vielleicht sogar mehr als unsere Großeltern, obwohl wir von Waschmaschinen, Geschirrspülern, Computern und Smartphones umgeben sind? Die Antwort liegt in einem Phänomen, das bereits während der Industriellen Revolution erkannt wurde und als Jevons-Paradoxon bekannt ist.

Umgekehrte Polnische Notation: Eine elegante Alternative zur Auswertung mathematischer Ausdrücke

Gábor Bíró 2. März 2025 6 Min. Lesezeit

Die umgekehrte polnische Notation (UPN) ist eine effiziente Methode zur Auswertung mathematischer Ausdrücke, die dadurch gekennzeichnet ist, dass Operatoren nach ihren Operanden platziert werden. Dieser Ansatz ermöglicht das Weglassen von Klammern, was den Berechnungsprozess vereinfacht und verdeutlicht. Auch wenn es anfangs ungewohnt erscheinen mag, beschleunigt die Verwendung von UPN die Ausführung von Operationen erheblich, insbesondere in Computersystemen und programmierbaren Taschenrechnern.

o3 mini vs. DeepSeek R1 vs. Google Gemini 2 Think

Gábor Bíró 9. Februar 2025 7 Min. Lesezeit

Der Fortschritt der künstlichen Intelligenz ermöglicht es LLM-Modellen zunehmend, komplexe mathematische Probleme zu lösen. Aber wie gut bewältigen sie die logischen Herausforderungen einer Wettbewerbsaufgabe für die Grundschule? In einem früheren Test habe ich die Leistung verschiedener Modelle untersucht, und jetzt, mit der Veröffentlichung von OpenAIs neuem O3-Modell, habe ich einen aktualisierten Vergleich durchgeführt.

o3 mini

Gábor Bíró 9. Februar 2025 3 Min. Lesezeit

OpenAI hat kürzlich das Modell o3-mini vorgestellt, das einen weiteren Fortschritt in der Reihe der auf Denkfähigkeiten optimierten Systeme der künstlichen Intelligenz darstellt. Das neue Modell kann besonders nützlich für diejenigen sein, die KI-basierte Unterstützung bei der Lösung technischer oder wissenschaftlicher Probleme suchen.

Nvidia Grafikkarten, die für KI geeignet sind

Gábor Bíró 7. Februar 2025 5 Min. Lesezeit

Viele Menschen verbinden Grafikkarten immer noch hauptsächlich mit Gaming, aber GPUs können viel mehr. Aufgrund ihrer Architektur eignen sie sich hervorragend für parallele Berechnungen, die für das Trainieren und Ausführen von Deep-Learning-Modellen unerlässlich sind. Stellen Sie sich vor: Ein modernes LLM hat Milliarden von Parametern, und all diese Parameter müssen gleichzeitig verwaltet werden. Diese Art der parallelen Verarbeitung ist die wahre Stärke von GPUs, während traditionelle CPUs (Central Processing Units) in dieser Hinsicht hinterherhinken.

Warum dominiert NVIDIA den Markt für KI-GPUs?

Gábor Bíró 3. Februar 2025 6 Min. Lesezeit

Der Fortschritt im Bereich des maschinellen Lernens und großer Sprachmodelle (LLMs) hat rechenintensive Herausforderungen geschaffen, die weit mehr als einfache Hardware-Upgrades erfordern. Die explosionsartige Zunahme der künstlichen Intelligenz in den letzten Jahren hat spezielle Anforderungen an die Rechenleistung hervorgebracht, für die NVIDIA derzeit nahezu exklusive Lösungen anbietet.

SATA, SAS und M.2 Verbindungsgeschwindigkeiten

Gábor Bíró 31. Januar 2025 3 Min. Lesezeit

Im Laufe der Entwicklung von Speichergeräten sind zahlreiche Verbindungstechnologien entstanden, die revolutionäre Veränderungen in Bezug auf Geschwindigkeit und Effizienz mit sich brachten. SATA-, SAS- und M.2-Verbindungen gehören heute zu den gängigsten Lösungen, aber wofür werden sie eingesetzt und wie unterscheiden sie sich?

Die gängigsten numerischen Formate für LLMs

Gábor Bíró 22. Januar 2025 4 Min. Lesezeit

Der effiziente Betrieb von großen Sprachmodellen (LLMs) hängt maßgeblich von der geeigneten Speicherung und Verarbeitung ihrer Gewichte ab. Das gewählte numerische Format beeinflusst direkt den Speicherbedarf, die Rechengeschwindigkeit und die Genauigkeit des Modells. Im Laufe der Jahre wurde FP32 beim Training zunehmend durch FP16 und BF16 ergänzt oder ersetzt, während INT8 und sogar quantisierte Formate mit noch geringerer Bit-Tiefe immer häufiger zur Optimierung der Inferenz eingesetzt werden.

Welches KI-Modell schneidet bei einer Matheaufgabe für die 5. Klasse am besten ab?

Gábor Bíró 13. Januar 2025 30 Min. Lesezeit

Die Entwicklung von KI-Modellen ist in den letzten Jahren in erstaunlichem Tempo vorangeschritten, aber wie leistungsfähig sind diese Systeme, wenn sie eine Mathematikwettbewerbsaufgabe für die 5. Klasse lösen sollen? In diesem Test untersuche ich nicht nur die Problemlösungsfähigkeiten der Modelle, sondern gebe auch Einblick, wie effektiv sie Optimierungsprobleme bewältigen können.

GPU-Leistungsvergleich für große Sprachmodelle

Gábor Bíró 11. Januar 2025 2 Min. Lesezeit

Die rasante Entwicklung großer Sprachmodelle (LLMs) stellt die Computertechnik vor neue Herausforderungen. Eine entscheidende Frage für mich ist, wie sich GPUs beim Ausführen dieser Modelle verhalten. In diesem Beitrag möchte ich die Leistung verschiedener GPUs anhand der Konzepte TFLOPS (Billionen Gleitkommaoperationen pro Sekunde) und TOPS (Billionen Operationen pro Sekunde) untersuchen. Ich werde die Fähigkeiten einzelner Modelle in einer übersichtlichen Tabelle darstellen und durch kurze Erklärungen ergänzen.

Deepseek V3: Nahezu State-of-the-Art-Qualität auf Ihrem eigenen Server

Gábor Bíró 9. Januar 2025 4 Min. Lesezeit

Bis vor kurzem wurde die High-End-KI-Landschaft von Modellen mit geschlossenem Quellcode wie GPT-4 und Claude Sonnet dominiert. Der Zugriff auf diese Modelle ist oft mit erheblichen Kosten und Einschränkungen verbunden. Die Einführung von DeepSeek-V3 markiert jedoch einen potenziellen Wandel: Dieses Open-Source-Sprachmodell bietet nicht nur eine Leistung, die mit führenden proprietären Modellen konkurriert, sondern auch die Möglichkeit, es auf der eigenen Infrastruktur zu betreiben.

Warum sind Grafikkarten so teuer?

Gábor Bíró 6. Januar 2025 4 Min. Lesezeit

Grafikkartenpreise sind seit Jahren astronomisch hoch, und dies ist auf komplexe, miteinander verbundene Gründe zurückzuführen. Oft kann eine High-End-Grafikkarte (GPU) allein mehr kosten als alle anderen Komponenten eines Computers zusammen, was verdeutlicht, wie bedeutend ihr Preis geworden ist.

Die Mixture-of-Experts (MoE) Architektur verstehen

Gábor Bíró 2. Januar 2025 3 Min. Lesezeit

Mixture of Experts (MoE) ist eine Machine-Learning-Architektur, die dem Prinzip „Teile und herrsche“ folgt. Die Grundidee besteht darin, ein großes Modell in mehrere kleinere, spezialisierte Submodelle – sogenannte „Experten“ – zu unterteilen, von denen sich jeder auf eine bestimmte Aufgabe oder einen bestimmten Datensatz spezialisiert.

Liefern Abfragen von Modellen auf Englisch bessere Ergebnisse?

Gábor Bíró 30. Dezember 2024 7 Min. Lesezeit

Bei der Verwendung von großen Sprachmodellen (LLMs) wie GPT-4o oder Claude Sonnet stellt sich oft eine Frage, insbesondere für die große Anzahl von Nutzern weltweit, die diese Tools in anderen Sprachen als Englisch verwenden: Welche Sprache sollte man wählen, um die effektivsten Ergebnisse zu erzielen? Obwohl die mehrsprachigen Fähigkeiten dieser Modelle eine effektive Kommunikation in zahlreichen Sprachen ermöglichen, scheint ihre Leistung im Vergleich zu Interaktionen, die ausschließlich auf Englisch geführt werden, oft geringer zu sein. Diese Untersuchung geht der Frage nach, warum dies der Fall sein könnte und wann ein Wechsel zu Englisch von Vorteil sein könnte.

Die 86 Milliarden Neuronen unseres Gehirns: Können LLMs sie übertreffen?

Gábor Bíró 22. Dezember 2024 11 Min. Lesezeit

Das menschliche Gehirn, ein komplexes biologisches System, das über Millionen von Jahren der Evolution perfektioniert wurde, steht im Kontrast zu Large Language Models (LLMs), den neuesten Errungenschaften der künstlichen Intelligenz. Obwohl LLMs beeindruckende Fähigkeiten in der Sprachverarbeitung zeigen, können sie jemals die Komplexität und Fähigkeiten des menschlichen Gehirns übertreffen?