Quanten-Trick knackt Chinas Super-KI

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 5790

    #1

    Quanten-Trick knackt Chinas Super-KI


    Nano Banana












    Kurzfassung





    Quellen








    Forscher von Multiverse Computing haben das chinesische KI-Modell DeepSeek R1 mittels Tensor-Netzwerken um 55 Prozent verkleinert. Das Verfahren entfernte selektiv 300 Milliarden Parameter, ohne die logische Leistungsfähigkeit oder das Wissen der KI zu beeinträchtigen. Gleichzeitig eliminierten die Entwickler die eingebauten Zensurfilter, sodass das Modell nun frei und ohne politische Einschränkungen antwortet. Die optimierte Version senkt die Hardware-Anforderungen massiv und ermöglicht den Einsatz auf deutlich günstigeren Systemen.







    Multiverse Computing - DeepSeek R1 Uncensored: Full Power, Fraction of the Size

    MIT Technology Review - Quantum physicists have shrunk and "de-censored" DeepSeek R1

    MIT Technology Review Newsletter - The Download: De-censoring DeepSeek, and Gemini 3

    Invisible Technologies Newsletter - AI for People Who Don't "Do" Digital


    Spanische Forscher haben das mächtige chinesische Sprachmodell DeepSeek R1 drastisch verkleinert. Mithilfe von Methoden aus der Quantenphysik entfernten sie überflüssige Parameter. Das Ergebnis benötigt weniger Rechenleistung und ignoriert die ursprünglichen politischen Filtervorgaben aus China komplett. Radikale Diät für neuronale Netze Das spanische Startup Multiverse Computing nutzt sogenannte Tensor-Netzwerke für diesen Eingriff. Diese mathematischen Strukturen stammen ursprünglich aus der Quantenphysik und helfen dabei, komplexe Systeme effizient zu beschreiben. Die Entwickler identifizierten damit jene Verbindungen im riesigen neuronalen Netz von DeepSeek, die für die eigentliche Problemlösung kaum relevant sind. Das Team löschte selektiv rund 300 Milliarden Parameter aus dem Modell. Trotz dieser massiven Reduktion um 55 Prozent behält die verbleibende Architektur die volle logische Leistungsfähigkeit des Originals bei. Die Software "vergisst" also kein Wissen, sondern organisiert es lediglich wesentlich kompakter als die ursprüngliche Version der chinesischen Entwickler. Hardware-Hunger sinkt rapide Die neue Version benötigt durch den Schrumpfungsprozess deutlich weniger Speicherplatz und Rechenpower. Lokale Anwendungen auf kleineren Servern oder leistungsstarken Workstations rücken damit in greifbare Nähe, wo zuvor ganze Rechenzentren nötig waren. Nutzer profitieren von schnelleren Antwortzeiten und geringeren Latenzen bei der direkten Interaktion mit der KI. Unternehmen sparen durch den geringeren Hardware-Hunger massive Kosten beim laufenden Betrieb und der Anschaffung von teuren Grafikbeschleunigern. Die Einstiegshürde für die Nutzung solch komplexer Modelle sinkt durch diesen Ansatz erheblich, da die Anforderungen an die Infrastruktur nicht mehr exponentiell mit der Intelligenz des Modells wachsen. Gezielter Eingriff gegen Zensurfilter Ein brisanter Nebeneffekt der Komprimierung betrifft die integrierten Sicherheitsmechanismen. Die Forscher entfernten gezielt jene Teile des Netzwerks, die für die politische Zensur und ideologische Ausrichtung der chinesischen Regierung zuständig waren. Diese Filter sitzen oft tief im System und verhindern Antworten zu politisch sensiblen Themen. Das Modell beantwortet nun Fragen völlig offen, die das Original zuvor blockierte oder nur mit Propaganda beantwortete. Nutzer erhalten ungefilterten Zugriff auf die Fähigkeiten der KI, ohne dass die ursprünglichen Entwickler ihre Agenda durchsetzen können. Diese Methode demonstriert eindrucksvoll, wie europäische Innovation bestehende KI-Architekturen effizienter macht und gleichzeitig die Kontrolle über die Inhalte zurückgewinnt.

    Weiterlesen...
Lädt...