KI auf Zeitreise: Sprachmodell rekonstruiert Geschichte

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    KI auf Zeitreise: Sprachmodell rekonstruiert Geschichte


    KI auf Zeitreise: Sprachmodell rekonstruiert Geschichte Ein simpler Prompt bringt ein ganzes Jahrhundert zurück. Wie kann ein LLM historische Ereignisse treffen, die es nie gelernt hat? Kurzfassung | Andreas Becker, 24.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Ein Student trainiert ein KI-Sprachmodell auf viktorianischen Texten – und wird von seinem eigenen Code belehrt. Als die KI bei einem simplen Prompt plötzlich historische Proteste beschreibt, die tatsächlich 1834 in London stattfanden, beginnt ein verblüffendes Experiment an der Grenze zwischen Statistik und Geschichte. NEWS Zeitreise per Tokenizer Hayk Grigorian, Informatikstudent in Pennsylvania, wollte eigentlich nur ein Sprachmodell bauen, das sich anhört wie ein Zeitungsredakteur aus dem 19. Jahrhundert. Dafür hat er über 7.000 Bücher, Gesetzestexte und Zeitungen aus dem London der Jahre 1800 bis 1875 gesammelt – und daraus ein eigenes kleines LLM trainiert. Moderne Begriffe fliegen raus, der selbst entwickelte Tokenizer akzeptiert nur Wörter, die ein echter Viktorianer gekannt hätte. Das Projekt nennt er „TimeCapsuleLLM“. Und anders als bei typischen Finetunes setzt Grigorian auf vollständiges Training from scratch. Das Modell soll nicht moderne Sprache imitieren – es soll vergessen, dass es sie je gegeben hat. Ein bisschen so, als würde man ein neuronales Netz mit einer Zeitmaschine in die British Library schicken. Wenn Halluzinationen plötzlich stimmen Die Überraschung kam, als Grigorian dem Modell den Satz „It was the year of our Lord 1834“ vorsetzte. Die Fortsetzung beschrieb Londoner Straßen voller Proteste, Petitionen und politische Spannungen – inklusive Nennung von Lord Palmerston. Der Student googelte, was es damit auf sich hatte – und stellte fest: Die Beschreibung passte verblüffend gut auf reale Ereignisse. 1834 tobten tatsächlich heftige Proteste gegen das neue Armengesetz. Palmerston war zu der Zeit britischer Außenminister. Grigorian hatte dem Modell keine gezielte Info über 1834 eingespeist. Die Verknüpfung entstand rein durch Wahrscheinlichkeiten im Textkorpus – ein statistischer Lottogewinn, gespeist aus 6,25 GB viktorianischem Material. Was bei früheren Versionen noch nach schönem Kauderwelsch klang, wirkt in Version 1 wie ein echtes Fragment aus dem Jahr 1834. Ein netter Nebeneffekt für KI-Nerds: Die Konfabulationen nehmen ab, je besser der Datensatz und je präziser das Training. Ein Effekt, der selbst bei kleinen Modellen sichtbar wird – und der zeigt, wie wichtig gute Trainingsdaten bleiben. Historisches Sprachmodell statt Rollenspiel Das TimeCapsuleLLM gehört zu einer wachsenden Gruppe sogenannter historischer LLMs. Manche Projekte generieren Texte im Stil der Ming-Dynastie oder der Aufklärung. Sie sollen keine Faktenmaschinen sein, sondern Denk- und Sprachwelten rekonstruieren – ein Werkzeug für Sprachhistoriker, Digital Humanities oder alle, die wissen wollen, wie ein Parlamentarier 1850 über „öffentliche Wohlfahrt“ geschrieben hätte. Grigorian stellt sein Projekt offen ins Netz. Wer will, kann mittrainieren – oder eigene Städte als Textkapsel aufsetzen. Vielleicht folgt bald ein Modell, das Berliner Zeitungen von 1848 liest, als wären sie heute erst gedruckt worden. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    Ein Student trainiert ein KI-Modell ausschließlich auf Texten aus dem viktorianischen London zwischen 1800 und 1875.
    Das Sprachmodell beschreibt überraschend präzise historische Proteste von 1834 – ohne diese je explizit gelernt zu haben.
    Das Experiment zeigt, wie detailgetreu und glaubwürdig historische LLMs rekonstruieren können, wenn der Datensatz stimmt.
    TimeCapsuleLLM ist öffentlich zugänglich und inspiriert weitere Projekte zur digitalen Geschichtsrekonstruktion.
    QUELLEN
    Ars Technica
    GitHub (TimeCapsuleLLM)
    Reddit (r/LocalLLaMA)
    Hugging Face (TimeCapsuleLLM)
    The National Archives

    Weiterlesen...
Lädt...