Blog Detail

Feb 14, 2023

Versklavte Gehirne oder bewusstes Sein

Ein spannendes Kapitel aus „Achtung der Countdown läuft bereits III“ steht Interessierten komplett und kostenlos zur Verfügung ©. Denn uns lehrt zwar die  Universalgeschichte, dass alles, was nicht in unser Weltbild passt oder eine Gefahr für unsere heile Welt darstellt, schlichtweg abgelehnt oder verächtlich gemacht wird, dennoch sollten wir uns langsam damit beschäftigen, was auf unserem blauen Planeten wirklich so abgeht …

 

Versklavte Gehirne oder bewusstes Sein

Seit Beginn der überlieferten Geschichte haben Menschen danach getrachtet, ihre Mitmenschen zu kontrollieren. Der Impuls dazu ist wohl ein Merkmal des Menschen selbst. Denn bis in unsere modernen Zeiten waren brutale Gewalt, Propaganda und Religion die erfolgreichsten Methoden für die Manipulation von Menschen. Aber um die Jahrhundertwende hat sich die Vielfalt der Zwangsmaßnahmen weit über das Schwert, den mitreißenden Slogan und das Zuckerbrot- und Peitsche-Schema hinausentwickelt.

Jetzt im 21. Jahrhundert haben Wissenschaftler*innen, die von Regierungen und anderen zahlungsfähigen Interessengruppen bezahlt werden, technische Durchbrüche errungen, die eine tatsächliche Bewusstseinskontrolle möglich machen, und zwar auf beinahe universeller Ebene. Invasionsmäßige Kontrolltechniken sind so fein eingestellt worden, dass die Kontrolleure praktisch fähig sind, in unsere Köpfe hineinzugelangen. Sie sind in der Lage, an unserem Menschsein herumzupfuschen, es zu manipulieren und es zu zerstören, wann immer sie wollen. Sie sind dazu in der Lage, High-Tech-Netzwerke elektronischer Beeinflussung und Sendung zu benutzen, deren Verfahrensweise in den Massenmedien noch nicht einmal nur schwach angedeutet wurde.

Und das Thema Bewusstseinskontrolle? Nun, das wurde einfach durch die Medien in Zusammenhang mit Science-Fiction gebracht. Aber genau diese Science-Fiction hat in gewissen wissenschaftlichen Instituten längst Eingang gefunden.
Eines dieser Institute ist die Intelli-Connection, eine Sicherheitsabteilung von IBM mit Sitz in 1200 Progress Way, Amonk, New York. Diese Abteilung beschäftigt sich überwiegend mit dem Thema Verbrechensbekämpfung und Sicherheit innerhalb von Besserungsanstalten. Bewusstseinskontrolle ist quasi ihr tägliches Bestreben, und Menschen in Verwahrungsanstalten sehen sie als Material an, welches umgeformt werden muss.

Hier ein interner und als vertraulich eingestufter Bericht des Unternehmens aus dem Jahre 2015:

Die Verbrechenskontrolle wird in Zukunft ein vorherrschendes Thema sein. Wir müssen mit unseren Sicherheitsprodukten wie dem 2020-Neutral-Chip-Implantat bereit sein, wenn die Nachfrage nach ihnen zutage tritt. Unsere Forschungs- und Entwicklungsabteilung war unter Vertrag mit dem Bundesbüro für Gefängnisfragen, dem kalifornischen Ministerium für Besserung, dem texanischen Ministerium für öffentliche Sicherheit und der Besserungsabteilung von Massachusetts, um begrenzte Versuche mit dem 2020-Neural-Chip-Implantat zu machen. Wir haben sowohl im Management als auch auf Verwaltungsebene in diesen Behörden Vertreter unserer Interessen untergebracht. Regelungen durch ein Bundesgesetz erlauben nicht das Testen von Implantaten an Gefangenen, aber wir haben das vertragsmäßige Testen unserer Produkte durchführen können. Wir hatten mit Implantat-Technologie auch größere Erfolge in privat geführten Sanatorien. Wir müssen jedoch unsere Tests ausweiten, um zu erforschen, wie effektiv das 2020-Neural-Chip-Implantat sich bei denen erweist, die als die aggressivsten Mitglieder unserer Gesellschaft gelten. Die eingeschränkten Tests haben bereits eine Reihe von Ergebnissen erbracht.

Unter www.neuralink.com gibt es einige interessante Bilder dazu.

In Kalifornien wurden einige Gefangene als Mitglieder einer die Sicherheit bedrohenden Gruppe (EME) oder mexikanischen Mafia erkannt. Sie wurden zur Gesundheitsdiensteinheit in Pelican Bay gebracht und mit fortschrittlichen Sedativen, die in unseren Laboratorien in Cambridge Massachusetts hergestellt wurden, ruhiggestellt. Die Implantationsprozedur dauert 60 bis 90 Minuten, je nach der Erfahrung des Technikers. Wir arbeiten an einem Gerät, das diese Zeit um bis zu 60 % verringern wird.

Die Ergebnisse der Implantate bei 8 Gefangenen ergaben folgendes:

  • Die Implantate dienten als Überwachungs- und Beobachtungsgerät für die Aktivitäten der bedrohlichen Gruppe.
  • Die Implantate setzten zwei Versuchspersonen während eines Angriffs auf das Personal der Besserungsanstalt außer Gefecht.
  • Umfassende Nebeneffekte bei allen 8 Testpersonen zeigten, dass das Implantat bei einer Einstellung auf 116 MHz alle Versuchspersonen lethargisch werden ließ und sie durchschnittlich 18–22 Stunden pro Tag schliefen.
  • Alle Versuchspersonen verweigerten 14 Tage lang Erholungspausen während der Auswertung des 116 MHz-Tests.
  • 7 von 8 Versuchspersonen machten keine Übungen, weder in der Zelle noch außerhalb der Zelle.
  • 5 der 8 Versuchspersonen weigerten sich bis zu drei Tage nacheinander zu duschen.
  • Jede Versuchsperson wurde im Hinblick auf aggressive Betätigung während der Testperiode beobachtet und die Ergebnisse zeigen deutlich, dass 7 von 8 Versuchspersonen keine Aggression zeigten – nicht einmal wenn sie provoziert wurden.
  • Jede Versuchsperson hatte 48 Stunden nach der Implantation kleinere Blutungen aus der Nase und den Ohren.
  • Keine der Versuchspersonen wusste von dem Implantat während der Testperiode und jedes Implantat wurde unter der Tarnung einer medizinischen Behandlung wieder entfernt.

 Es sollte bemerkt werden, dass die Testperiode weniger als zwei Monate andauerte. Jedoch wurden während dieser Zeit wichtige Daten durch unser Forschungs- und Entwicklungsteam gesammelt, die andeuten, dass die Implantate die erwarteten Ergebnisse übertrafen.
Eine der wichtigeren Besorgnisse der Sicherheitsbehörde und des R&D-Teams war, dass die Testperson während der Anpassungsphase das chemische Ungleichgewicht entdecken würde und der Test abgebrochen werden müsste. Jedoch aufgrund fortschrittlicher technologischer Entwicklungen bei den Substanzen kann die 48stündige Anpassungszeit einer Medikamentenbehandlung zugeschrieben werden, die die Testperson nach der Implantation erhalten hat.
Einer der Besorgnispunkte, die vom Forschungs- und Entwicklungsteam geäußert wurden, war der Grund für die Blutung und wie man das Problem beseitigen könnte. Unerklärtes Bluten könnte die Versuchsperson veranlassen, weitere Fragen ihrem „Routine-Besuch“ in der Krankenstation oder anderen Gesundheitsfürsorgeeinrichtungen zu stellen.
Die Ausbeute in Sicherheitsfragen war aufgrund der kurzen Testperiode enorm.
Sicherheitsbeamte kennen jetzt einige Strategien, die von der EME angewandt werden, die die Übergabe von illegalen Drogen und Waffen in ihrer Besserungsanstalt erleichtern.
Ein Geheimdienstoffizier bemerkte, dass sie, obwohl sie die gewonnenen Informationen nicht vor Gericht verwenden könnten, jetzt wissen, wen sie beobachten müssen und welche Verbindungen nach draußen sie haben.
Das Gefängnis von Soledad überlegt jetzt, ob es nicht drei Versuchspersonen nach Vacaville verlegen soll, wo wir laufende Implantationsforschung betreiben. 
Unsere Techniker haben versprochen, dass sie drei 2020-Neural-Chip-Implantationen in weniger als einer Stunde erledigen können. Soledad-Beamte hoffen, von diesen dreien Informationen zu erhalten, um eine 14-monatige Untersuchung über Drogenschmuggel durch Beamte der Besserungsanstalt zu einem Abschluss zu bringen.
Im Grunde genommen machen die Implantationen aus einem unwissenden Gefangenen ein laufendes und sprechendes Aufnahmegerät, das über jedes Ereignis, das ihm begegnet, Rechenschaft abgibt. Es gibt nur fünf Geheimdienstoffiziere in der Besserungskommission, die tatsächlich über das ganze Ausmaß der Implantations-Versuchsreihe Bescheid wissen.
In Massachusetts ist die Besserungsanstalt bereits auf höchster Ebene zum Diskussionspunkt geworden, weil sie gewisse Gesetzesbrecher mit 2020-Neural-Chip-Inplantatem frei lassen …

♦♦♦

Erschreckend, nicht wahr? Leider ist der von mir aufgeführte Vorfall nur einer von zahllosen Tests, bei denen die Betroffenen nicht gefragt wurden bzw. völlig ahnungslos waren, dass sie quasi als Versuchskaninchen missbraucht wurden. Mir liegen noch einige Berichte von Personen vor, denen man ohne ihr Wissen winzige Implantate eingeführt hat. Allerdings möchte ich dieses Kapitel nicht überstrapazieren und daher nur über die am besten dokumentierten Fälle berichten. Einer dieser Berichte handelt von Robert Naeslund:

Er berichtet, dass ihm 1967, während er sich in Stockholm (Schweden) einer Operation unterzog, ein Gerät zur Bewusstseinskontrolle implantiert wurde. Laut Robert Naeslund wurde das Implantat durch Dr. Curt Strand angebracht, und zwar in Form einer Injektion durch ein Nasenloch. Daraufhin trat Robert Naeslund mit dem schwedischen Amt für Gesundheit und Wohlfahrt in Kontakt und protestierte gegen das ohne seine Einwilligung erfolgte Experiment während seiner Operation. Als jedoch die Ärzte seine Geschichte hörten, wurde er, wie vorauszusehen war, für verwirrt erklärt und dementsprechend behandelt. Dennoch zeigte Robert Naeslund mehreren schwedischen Ärzten die Röntgenaufnahmen von seinem Kopf, aber auch diese Herren meinten einstimmig, dass alles normal wäre.
Erst 1983, nachdem Professor P. A. Lindstrom von der University of California die Röntgenaufnahmen begutachtete, wurde offiziell bestätigt, dass einige Fremdkörper in seinem Gehirn sichtbar sind. Danach ging es erstaunlich schnell, bis sich 10 weitere Ärzte meldeten, welche die Einschätzung von Professor Lindstrom bestätigten. Daraufhin reichte Robert Naeslund 1985 eine Petition mit 50 Unterschriften beim schwedischen Leiter der Anklagebehörde ein und informierte über die Implantierung. Gleichzeitig forderte er, dass dieses Vorgehen gestoppt wird. Robert Naeslund war auch eine von mehreren Personen, die dafür verantwortlich waren, dass eine Anzeige in 30 verschiedenen Zeitungen erschien, in denen die Situation der Bewusstseinskontrolle in Schweden aufgezeigt wurde. Allerdings geriet die ganze Angelegenheit ganz allmählich in Vergessenheit, sodass letztlich keine Veränderung stattgefunden hat.
Ganz im Gegenteil, denn unsere Neurowissenschaftler tüftelten an noch tückischeren und exotischeren Methoden, um das ultimative Kontrollmittel zu finden. Daher ist es nicht verwunderlich, wenn auch exotische Fragen in den Raum gestellt wurden, wie:

Wie wäre es, wenn wir die menschlichen Empfindungen bearbeiten könnten oder Bilder in die Gehirne einfügen würden, die der Betroffene nie gesehen hat?

Genau diese Fragen stellen sich derzeit unsere Neurowissenschaftler, welche an einer Technologie für Sinnestäuschung arbeiten. Bei der besagten Technologie sollen Informationen mithilfe von Laserlicht direkt ins Gehirn übertragen werden. Diese Art von Täuschung ist deswegen so interessant wie gruselig, weil vermittelnde Organe (Augen – Ohren, …) aus der Wahrnehmungsgleichung herausgenommen und die Simulationsinformation direkt in das Gehirn gespeist wird. Dadurch sind virtuelle Erlebnisse von der Realität nicht mehr zu unterscheiden. Das Verfahren wurde bereits erfolgreich an der Berkeley Universität an Mäusen erprobt.
Dabei setzen die Forscher*innen auf Optogenetik (genetisch modifizierte Zellen im Gehirn werden mithilfe von Lichtsignalen ferngesteuert). Erschreckend ist, dass die Forscher*innen eine sehr präzise Methode zur Lichtsteuerung entwickelt haben, die es ermöglicht, einzelne Zellen individuell zu aktivieren. Im Klartext bedeutet das, dass Hirnaktivitäten jeglicher Art aufgezeichnet, exakt kopiert und zu einem beliebigen Zeitpunkt in jedes beliebige Gehirn übertragen werden können.
Die Forscher nennen das eine „holografische Projektion“. Das bedeutet, dass die Empfänger der kopierten Hirnsignale die gleichen Empfindungen wie bei einem realen Erlebnis haben. Laut Wissenschaft können diese lichtsensiblen Zellen rund 50-mal oder mehr pro Sekunde aktiviert werden, was normalen Neuronen-Feuerraten des Gehirns entsprechen soll. Allerdings stellt sich hier auch die berechtigte Frage, wie unsere Wissenschaftler auf holografische Projektionen kommen, wenn wir vom menschlichen Gehirn sprechen?
Natürlich wurde dieses Thema nicht zufällig in Angriff genommen, denn der Gehirnforscher und Quantenphysiker der Standford-Universität Karl Pribram wurde lange Zeit von einer kniffligen Frage gequält:

Wie und wo werden Erinnerungen im Gehirn gespeichert?.

Durch zahlreiche Versuche fand er heraus, dass das Gehirn in der Tat holografisch ist. Weiterhin konnte er belegen, dass alle unsere Erinnerungen, Aktionen, Interaktionen usw. codiert in Mustern von Impulsen verschlüsselt durch das gesamte Gehirn gehen, also nicht, wie bisher angenommen, ihren festen Platz in den Neuronen haben. Auch der Physiker David Bohm, der an der Universität von Princeton in den Bereichen Quantenmechanik und Relativitätstheorie forscht, kam zu diesem Ergebnis.

Aber nicht nur diese beiden genialen Wissenschaftler beschäftigten sich mit dem Thema „holografisches Gehirn“, denn am 27. April 2015 veröffentlichte die Technische Universität Wien über eine Pressemitteilung (49/2015) einen Artikel mit der Überschrift:

Ist das Universum ein Hologramm?

Drei Jahre lang haben Daniel Grunmiller und sein Team an der TU Wien zusammen mit der Universität von Edinburgh, der Havard-Universität, dem MIT und der Universität Kyoto an Gravitationsmodellen zum Thema des Korrespondenzprinzips geforscht.
In dieser Pressemitteilung wird die Gültigkeit des Korrespondenzprinzips in einem „flachen Universum“ bestätigt. Ihre Berechnungen bestätigen nun die Annahme, dass das holografische Prinzip auch in „flachen“ Bereichen realisiert werden kann. Dieses Ergebnis löst ein bisheriges Hindernis auf dem Weg zur Akzeptanz eines holografischen Universums auf, denn diese Entdeckung leitet aus neuesten Messergebnissen eine hohe Wahrscheinlichkeit für die tatsächliche Existenz eines holografischen Universums ab.
Jeder kennt sicher die Hologramme auf Kreditkarten oder Banknoten. Das uns als dreidimensional erscheinende Bild ist in Wirklichkeit zweidimensional. Unser Universum ist laut neuesten Studien zufolge ganz ähnlich aufgebaut. Forscher*innen der TU Wien glauben, dass eine mathematische Beschreibung des Universums tatsächlich eine Dimension weniger erfordert, als bisher angenommen wurde. Denn das, was wir dreidimensional wahrnehmen, ist letztlich nur das Bild der zweidimensionalen Prozesse auf einem riesigen kosmischen Horizont.
Die nun veröffentlichten Ergebnisse von Wissenschaftler*innen der TU Wien weisen darauf hin, dass dieses holografische Modell auch in einer flachen Raumzeit existiert.

Fügen wir nun die Forschungsergebnisse des Artikels „Der Spuk hat ein Ende“ von Albert Einstein den Ergebnissen von Daniel Grunmiller hinzu, dann scheinen sich diese beiden Veröffentlichungen zu ergänzen. Denn es geht um das Thema der Quantenverschränkung. Das Bedeutsame an verschränkten Teilchen ist, dass sie sich in einem gemeinsamen Quantenzustand befinden. Somit tragen auch die neuesten Ergebnisse zu einer immer größeren Wahrscheinlichkeit bei, dass wir tatsächlich in einem holografischen Universum leben.

♦♦♦

Mag sein, dass diese neuesten Forschungsergebnisse der Hirnforscher auch einen Segen für die Menschheit darstellen, da auf diese Weise schwere Traumata, durch Unfälle verursachte Gehirnschäden oder aber von Geburt an gegebene Behinderungen in den Gehirnregionen zum Wohle der Betroffenen behoben werden können.

Was aber, wenn das alles zu Machtzwecken missbraucht wird?

Was, wenn wir heute nicht mehr wissen, was gestern tatsächlich geschehen ist, weil man uns virtuelle Bilder direkt ins Gehirn projiziert hat, welche wir durch unsere Empfindung als real und echt registrieren?

Erreichen mich dann Berichte wie z. B. „Wird die Wissenschaft bald Erinnerungen löschen können?“ (Galileo/Heft 6, 2019), überkommt mich doch ein wenig der Schauer, obwohl in diesem Bericht die positive Seite der Löschung von Erinnerungen hervorgehoben wird.

Opfern von Terrorattentaten, Vergewaltigungen und Entführungen hilft sicherlich eine Rekonsolidierung der Erinnerungen, wie die Methode in Fachkreisen genannt wird, allerdings wissen wir nur zu gut, dass so manche positive Erfindung für militärische Zwecke missbraucht worden ist. Auch wenn bei diesem Vorgang „lediglich“ Neuronen durch das Medikament Propranonol blockiert werden, ist es eine Methode, welche durchaus das Potenzial hat, effizient verfeinert zu werden.

Selbst ein Bericht im Internet unter www.getastral.de/eine-außerkörperliche-Erfahrung-simulieren vom 20.10.2019 zeigt deutlich auf, dass unsere Wissenschaft mit Hochdruck auf dem Gebiet der virtuell erzeugten Bilder arbeitet. Da außerkörperliche Erfahrung der Wissenschaft zwar ein Begriff ist, aber bisher jegliche Beweise und Erklärungen dazu fehlten, hat sich ein Team von Forscher aus Washington dazu entschlossen, Antworten zu finden. Dabei ist ihnen ein genialer Test eingefallen:

Die Simulation einer außerkörperlichen Erfahrung.

Tatsächlich ist es ihnen dann auch gelungen, bei allen Testpersonen die Illusion zu erzeugen, sich außerhalb ihres Körpers zu befinden, denn die Sinne der Versuchspersonen wurden dabei so weit getäuscht, dass ihr Gehirn automatisch glaubte, sich außerhalb ihres Körpers zu befinden.

Testablauf:
Eine Videobrille wurde mit zwei Kameras verbunden, wobei das eine Kamerabild auf das rechte und das andere Kamerabild auf das linke Auge projiziert wurde. Die Kameras wurden dabei hinter den Versuchspersonen so platziert, dass sie ihren eigenen Rücken von hinten sehen konnten. Somit wurde die Illusion geschaffen, hinter dem eigenen Körper zu stehen. Schon nach wenigen Sekunden wurde diese Illusion dem Bewusstsein sehr vertraut und es empfand dies als real.
Noch verblüffender war das Erlebnis, als die Proband*innen mit einem Stab im Brustbereich berührt wurden und gleichzeitig dieselbe Bewegung mit einem Stab vor der Kamera gemacht wurde. Durch diese Sinnestäuschung waren die Testpersonen der Meinung, mit dem Stab vor der Kamera berührt zu werden.
Die Forscher gingen in diesem Test noch weiter und traktierten das visuelle Abbild mit Hammerschlägen. Die Probanden reagierten auf diese visuelle Gefahr mit einer messbaren Panik, sie hatten das Gefühl wirklich attackiert zu werden. Auch bei einem „Messerschnitt“ auf das visuelle Abbild signalisierte ihr Gehirn eine reelle Gefahr, denn: Das Gehirn kann nicht unterscheiden.

Henrik Ehrsson, der am University College London und am Karolinska-Institut Stockholm arbeitet und auch an diesem Experiment beteiligt war, hat einen ähnlichen Versuch gestartet. Eine Gummihand wurde anstelle der reellen Hand an der Testperson angebracht, während sie an ein Instrument, welches Hirnströme messen kann (EEG), angeschlossen wurde. Anschließend wurde überprüft, wie das Gehirn der Testperson auf Reize an der Gummihand reagiert. Die Ergebnisse waren verblüffend: Das Gehirn der Testperson nahm die unechte Hand als eigene an und fühlte mit der Gummihand. Berührungen wurden signalisiert und Angriffe reizten den Schutzmechanismus.
Auch hier war das Bewusstsein nicht auf den reellen Körper fixiert, was beweist, dass Körper und Bewusstsein voneinander getrennt sind.

Ein ähnliches Phänomen tritt bei einer Situation auf, die jedem bekannt ist: das Einschlafen von Körperteilen. Dieses Taubheitsgefühl kann so weit voranschreiten, dass Bewegungen nicht mehr auf das betreffende Körperteil vermittelt werden. Meistens passiert so etwas nachts, wenn man plötzlich erwacht und merkt, dass der komplette Arm eingeschlafen ist. Beim Anfassen wird dann oft der eingeschlafene Arm als Fremdkörper empfunden und nach dem Verlegen des Armes kommt es einem vor, als liege er noch in der vorherigen Position.

Anhand dieser und weiterer Tests konnte die Wissenschaft belegen, dass außerkörperliche Erfahrungen möglich sind, und dass

 Körper und Bewusstsein eindeutig voneinander getrennt sind.

Aber noch sind „Virtual und Augmented Reality“ nicht zu einhundert Prozent ausgereift, dennoch arbeiten Forscher des Silicon Valley bereits an einer direkten Verbindung zwischen Gehirn und Computer.

Eine der schillerndsten, aber auch genialsten Figuren in diesem Bereich ist Elon Musk. Elon Reeve Musk ist laut WIKIPEDIA am 28. Juni 1971 in Pretoria geboren und ein aus Südafrika stammender kanadisch-US-amerikanischer Unternehmer. Er ist durch seine Beteiligung an der Gründung des Online-Bezahlsystems PayPal sowie mit dem privaten Raumfahrtunternehmen SpaceX und dem Elektroautohersteller Tesla bekannt geworden.

Im Jahr 1995 gründete Musk gemeinsam mit seinem Bruder Kimbal sein erstes Unternehmen Zip2, das Inhalte für Medienunternehmen anbot. Nach Musks Aussage hatte er damals „eine vage Vorstellung von den Chancen, die ein DOT-COM-Unternehmen, 2000 US-Dollar Kapital, ein Auto und ein Computer bieten konnten“. Als der Computerhersteller Compag das Unternehmen 1999 für 307 Millionen US-Dollar aufkaufte, war dies der bis dahin höchste für ein Internetunternehmen gezahlte Preis; Musk selbst konnte über seine Beteiligung anschließend auf 22 Millionen US-Dollar Kapital zurückgreifen.

X.com und PayPal (1999/2000)
Direkt im Anschluss gründete Musk im Jahr 1999 das Unternehmen X.com, das ein Onlinebezahlsystem via E-Mail entwickelte. Schon 2000 fusionierte X.com mit dem Konkurrenzunternehmen Confinity, welches sich auf ein ähnliches Produkt namens PayPal spezialisiert hatte. PayPal wurde in den folgenden Jahren zum wichtigsten Onlinebezahlsystem weltweit – und erzielte einen Verkaufserlös von 1,5 Milliarden US-Dollar, als es 2002 an eBay verkauft wurde. Musk hielt zu diesem Zeitpunkt 11,7 % der Firmenanteile und war damit der größte Anteilseigner. Im Juli 2017 erwarb er die Domain x.com von PayPal zurück.

Während Musks Internetunternehmen mit Produkten, die es zuvor in dieser Form nicht gab, neue Märkte erschlossen, war die Geschäftsidee, die den unternehmerischen Aktivitäten der folgenden Jahre zugrunde liegen sollte, eine andere: Er wollte teure und technisch komplexe Produkte günstiger und für die Massenfertigung tauglich anbieten.

SpaceX (2002)
Musks dritte Gründung war 2002 das Raumfahrtunternehmen SpaceX – damit wurde er CEO und Raketen-Chefdesigner. Durch hohe Kosteneffizienz wurde SpaceX innerhalb von 15 Jahren zum weltweit führenden kommerziellen Anbieter von orbitalen Raketenstarts, insbesondere für den Transport von Satelliten in die Erdumlaufbahn. Außerdem versorgt SpaceX mit dem Raumschiff Dragon seit 2012 die Raumstation ISS. Mit dem Nachfolger Crew Dragon fand im Mai 2020 der erste bemannte Flug zur ISS statt. Russland warf Musk vor, gezielt die russischen Raumtransporter durch Discountpreise aus dem Markt drängen zu wollen. Eine kuriose Auswirkung im Jahr 2019 war, dass es dem stellvertretenden Generaldirektor von Roskosmos verboten war, Musk bei offiziellen Veranstaltungen zu zitieren.

Neuralink (2016)
Im Juli 2016 gründete Musk das Unternehmen Neuralink, das Möglichkeiten zur Vernetzung des menschlichen Gehirns mit Maschinen untersucht, wobei seine Beteiligung an Neuralink erst im März 2017 bekannt wurde. Gleichzeitig wurde aber betont, dass das Forschungsvorhaben sich bislang noch im Anfangsstadium befinden würde. Allerdings machte er gerade in den letzten Jahren gewaltige Fortschritte bei seinem Plan, das menschliche Gehirn mit Computern zu verbinden.
Der Milliardär präsentierte der erstaunten Fachwelt den Prototypen eines Geräts seiner Firma Neuralink, das Informationen zwischen Neuronen und einem Smartphone übermitteln kann – und zwar in einem Schwein.

 In der Zukunft wäre es denkbar, verletztes Nervengewebe mithilfe der Technologie zu überbrücken, etwa damit Menschen wieder laufen könnten, berichtet Musk. Der Prototyp ist unter anderem mit Temperatur-, Druck- und Bewegungssensoren ausgestattet: Das Gerät könnte also die Gesundheit überwachen und zum Beispiel bei Gefahr von Herzinfarkt oder Schlaganfall warnen. Der Mini-Computer im Kopf soll per Bluetooth-Funk mit einer App auf dem Smartphone kommunizieren.

Bei seiner Präsentation zeigte Musk ein Schwein, bei dem Impulse vom Rüssel übermittelt werden. Jedes Mal, wenn Schwein Gertrude damit etwas berührte, waren auf einem Bildschirm elektrische Signale zu sehen. Bei einem Schwein auf dem Laufband konnte mit Informationen aus dem Gerät per Software ziemlich genau vorhergesagt werden, wann welches Gelenk aktiviert wird.

Neben dem Gesundheitsaspekt ist u. a. aber auch geplant, dass man mit dem Gerät in Zukunft Erinnerungen speichern und wiedergeben kann. Aber auch über die Kosten wurde bei der Präsentation gesprochen. Musk gehe davon aus, diese mit der Zeit – inklusive Operation – auf einige Tausend Dollar senken zu können. Wann der Prototyp in Serie gehen soll, steht bislang noch nicht fest.

Ich kann mir nicht helfen, aber wenn ich diese Entwicklung betrachte, dann läuft es mir eiskalt den Rücken herunter. Ein Mini-Computer in meinem Gehirn? Ganz gleich, welche eventuellen Vorteile dieses Gerät mir bringen würde, es entfernt mich vom Menschsein. Lässt mich zum steuerbaren „Etwas“ werden. Wo wäre die Grenze? Wie viel Mensch würde bei dieser Entwicklung noch übrigbleiben? Können wir diese Entwicklung noch stoppen? Wohl schwer, denn neben Musk arbeiten bei Facebook ca. 60 Forscher*innen an einem ultimativen Interface, welches in der Lage ist, Computern menschliche Gedanken zu diktieren. Allerdings richtet sich der Blick unserer Neurowissenschaftler*innen auch auf Ergebnisse in Richtung „Supermensch“. Er wäre in der Lage, magnetische Felder wahrzunehmen oder das Sehfeld erheblich zu erweitern. Mehr noch, er wäre in der Lage, Gedanken lesen zu können.

Wer jedoch glaubt, dass Chip-Implantate pure Zukunftsmusik sind, der täuscht sich gewaltig. RIFD-Implantate im menschlichen Körper sind längst im Einsatz. Die menschliche Überwachung findet also bereits statt.

♦♦♦

Elektronische Menschen-Kontrolle

RFID-Implantate im menschlichen Körper sind von Gesundheitsbehörden vor Jahren als unbedenklich eingestuft worden und finden seither Verwendung bei Tieren und Menschen. Allerdings wollen auch die Stimmen der Kritiker nicht verstummen, die darauf beharren, dass die möglichen Risiken nicht ausreichend untersucht worden sind. In Tierversuchen führten die kleinen Mikrowellensender zu erhöhtem Krebsrisiko, wenn sie implantiert wurden.

Der Mensch mit Chip-Implantat ist längst keine Vision mehr. Denn diese Funkchips werden in Zukunft unsere Körper fluten. Vor Kurzem hat die amerikanische Gesundheitsbehörde FDA nach zweijähriger Genehmigungsphase erstmals implantierbare Chips für medizinische Anwendungen erlaubt. Jeder dieser sogenannten Verchips ist so groß wie ein Reiskorn und enthält eine eindeutige 16-stellige Codenummer. Verknüpft mit einer Datenbank können über diese ID dann diverse Datensätze abgefragt werden. Um die Funkchips einzusetzen, wird nicht einmal mehr ein Arzt bzw. eine Ärztin benötigt. Die RFID-Chips sollen eine Lebensdauer von 100 Jahren haben.

Der GPS-Chip erlaubt es, den Besitzer jederzeit und überall per Satellit zu orten

Der im Arm implantierte Chip soll zur Sicherheit für besonders gefährdete Personen vorgesehen sein (schwer zu glauben) oder auch z. B. die Gefahr von Kidnapping reduzieren. Wird der Chip nicht mehr benötigt, beispielsweise wenn der Besitzer bzw. die Besitzerin pensioniert wird, dann kann er problemlos mit einem speziellen Deaktivierungsgerät außer Betrieb gesetzt werden.

RFID als sprechende Gebiss-Prothese

Durch eine einzigartige Seriennummer in Gebissen, Brücken und Kronen sollen Fehler durch zahntechnische Labors vermieden und Reparaturen erleichtert werden. Obendrein erwartet man durch die RFID-Technik eine höhere Produktivität. Bisher treten Probleme dann auf, wenn die Prothesen-Daten von einem  Zahntechniker zum anderen weitergeleitet werden. Die RFID-Technologie soll hier Abhilfe schaffen: Ein Lesegerät ermöglicht es, jede Veränderung am Zahnersatz in einer Datenbank und auf dem Chip selbst zu speichern. Dadurch sind sämtliche Operationen nachvollziehbar, sofern es Probleme gibt. Zwei belgische Zahnärzte gehen sogar noch einen Schritt weiter: Sie wollen den Personalausweis durch einen Mikrochip zwischen Inlays und Kronen im Gebiss ersetzen. RFID-Chips mit einer Größe von 6 Millimetern könnten dann beispielsweise die Identifikation von Toten (wie z. B. Opfer von Naturkatastrophen etc.) deutlich erleichtern.

Digital Piercing zur Erleichterung des Alltags

Zukünftige Generationen von Menschen werden unter Umständen die funkenden Computerchips ganz selbstverständlich in ihrem Körper integrieren. Ziel ist die Erleichterung des täglichen Lebens. Mit in beiden Händen implantierten Funkchips können zum Beispiel berührungslos und ohne Sichtkontakt Schlösser geöffnet werden, die Hausbeleuchtung gesteuert oder ein Tresor gesichert werden. Oder es wird z. B. sofort Kaffee aufgebrüht, wenn man die Küche betritt. Oder folgende Situation: „Ohne Geld im Supermarkt?“ Kein Problem: Einmal kurz den Bizeps beugen und die lächelnde Kassiererin scannt den Arm – schon ist der RFID-Chip erkannt und der Einkauf ist bezahlt. Im Baja Beach Club in Barcelona können sich Gäste bereits einen RFID-Chip in den Oberarm verpflanzen lassen.

RFID als virtuelle Krankenakte

Die Funkchips können in Verbindung mit entsprechenden Sensoren dem Arzt bzw. der Ärztin ständig wertvolle Informationen (z. B. Blutdruck, Puls oder Körpertemperatur) über den Gesundheitszustand der Patienten liefern. Damit soll dem behandelnden Arzt bzw. der behandelnden Ärztin schnell Zugang zu Informationen über die Krankheitsgeschichte ermöglicht werden.

Big Brother – die Totalüberwachung ist mit dem RFID-Chip Realität geworden.

Im nationalen Sicherheitszentrum in Mexiko wurden bereits bei 168 Mitarbeiter RFID-Chips mit GPS-Ortungssystem implantiert, die den Mitarbeitern einerseits als Zugangsschlüssel zum Hochsicherheitsareal dienen, anderseits auch in der Lage sind, die einzelnen Mitarbeiter auf Schritt und Tritt zu überwachen. Das Implantat erlaubt auch eine Ortung außerhalb des Arbeitsplatzes. Dadurch soll die gefühlte Sicherheit von besonders hochrangigem Personal erhöht werden, da es in Mexiko immer wieder zu Entführungen von Personen in wichtigen Positionen oder aus reichen Familien kommt. Aber auch besonders gefährliche und zu Folgestraftaten bereite entlassene Häftlinge bzw. Terroristen können mithilfe von einem implantierten RIFD-GPS-Chip überwacht werden.

Massenkontrolle durch Biochips

Mittels Biochips, die auf die Hirnrinde aufgesetzt werden, wird es möglich sein, Fernseher und Videorecorder zu bedienen. Gefängnisse werden überflüssig sein, denn es herrscht eine gefängnislose Gesellschaft: Kriminelle werden nicht mehr eingesperrt, sondern durch Computerchips im Gehirn von weiteren Straftaten abgehalten. Computertastaturen werden überflüssig, da die Computer sich durch die Stimme oder mithilfe von einem eingepflanzten Biochip bedienen lassen.

Viele Menschen sind heute so weit, dass sie an dieser totalen Technik nichts Schlechtes sehen oder sie sogar direkt gutheißen und unterstützen. Dabei sind es noch keine 100 Jahre her, seit die Mehrheit der Menschheit die intuitive Überzeugung hatte, dass das Zerschneiden der Landschaft durch Eisenbahnlinien und gepflasterte Straßen unglückverheißende Störungen in der Natur hervorrufen wird. Jetzt, nur ein paar Jahrzehnte später, fügen sich die Menschen bereits einer totalen technologischen Vernetzung auf allen Ebenen? Das war keine zufällige Entwicklung, sondern zielstrebige Strategie. Die Lösung ist nicht die Rückkehr ins Mittelalter und auch nicht der destruktiv-technologische Fortschritt, sondern ein Quantensprung in das kosmische Bewusstsein des nachtechnologischen Zeitalters, in dem die Menschen wieder von diesen Abhängigkeiten frei sein werden.

Es mag Ihnen in diesem Zusammenhang seltsam vorkommen, wenn ich bei diesem Thema einen Blick in die Bibel werfe. Genauer gesagt in die Offenbarung des Johannes. Aber beim Studieren dieses Kapitels entdeckt man eine enorme Ähnlichkeit zu dem eben beschriebenen Thema, welche nicht von der Hand zu weisen ist.

Geheime Offenbarung 13,16

Das Tier hatte alle Menschen in seiner Gewalt: Hohe und Niedrige, Reiche und Arme, Sklaven und Freie. Sie mussten sich ein Zeichen auf ihre rechte Hand oder ihre Stirn machen, sodass niemand kaufen oder verkaufen konnte als nur der, welcher dieses Malzeichen hat: den Namen des Tieres oder die Zahl seines Namens. Hier ist Weisheit vonnöten. Wer Verstand hat, der kann herausfinden, was die Zahl des Tieres bedeutet, denn sie steht für den Namen eines Menschen. Es ist die Zahl 666.

Kann es sein? Dass wir uns momentan genau am Anfang dieses Szenarios befinden? Wenn ja, wäre es dann nicht sinnvoll, sich gegen diese unheilvolle Abhängigkeit zu stemmen, indem wir kritisch hinterfragen, das Mensch-Sein pflegen und nicht zu jeder neuen Technik gleich Ja sagen?

Aber lassen Sie mich noch einmal auf die Ergebnisse der TU Wien zurückkommen und deren Erkenntnisse auf unsere sogenannte Realität übertragen. Es ist nämlich ungemein wichtig zu wissen, dass ein Hologramm eine besondere Eigenschaft hat:

Wenn man nämlich einen Lichtstrahl auf das Hologramm richtet, dann kann der vom Hologramm reflektierte Lichtstrahl ein dreidimensionales Bild der im Hologramm gespeicherten Bildinformation erzeugen. Wenn man jedoch das Hologramm in mehrere Teile zerbricht, dann erkennt man, dass jedes einzelne Teilfragment des Hologramms in der Lage ist, das gesamte 3-D-Bild zu erzeugen. Das Einzige, was in diesem Fall verloren geht, ist die Auflösung bzw. Bildschärfe, die abnimmt, umso kleiner das Teilfragment ist.

Berücksichtigt man diese Erkenntnis in Bezug auf unsere Wahrnehmung dessen, was wir um uns herum erkennen und als real akzeptieren, dann bleibt letztendlich nur noch eine Möglichkeit übrig, nämlich, dass wir uns unsere Realität eher als ein Bild anstelle eines Festkörperkonstrukts vorstellen sollten.

Die Realität, welche wir sehen, entspricht eher einer dreidimensionalen Projektion, ähnlich wie ein Schatten der zweidimensionalen Projektion eines dreidimensionalen Körpers entspricht. Was das Ganze so faszinierend erscheinen lässt, ist die augenscheinliche direkte Kommunikation aller beteiligten Teilchen, die sich in großer Entfernung voneinander befinden. Die uns bekannte Relativitätstheorie jedoch besagt, dass sich nichts schneller im Raum bewegen kann als die Lichtgeschwindigkeit. Experimente hinsichtlich eines holografischen Gehirns wiederum haben aber gezeigt, dass die Informationen in unserem Gehirn ohne Zeitverzug ausgetauscht werden.

Um dieses Phänomen ein wenig verständlicher zu machen, möchte ich auf eine Analogie zurückgreifen.

Stellen Sie sich vor, in einem Aquarium schwimmt ein Fisch und man richtet zwei Video­kameras aus zwei verschiedenen Perspektiven auf den Fisch. Die Signale werden auf zwei Monitoren im Nebenraum dargestellt. Ein Beobachter, der den Versuchsaufbau nicht kennt und vor die beiden Monitore gesetzt wird, wird zunächst denken, dass es sich um zwei unterschiedliche Fische handelt. Wenn sich „die Fische“ auf dem Monitor zu bewegen beginnen, scheint es so, als ob „die Fische“ miteinander kommunizieren, um ihre Bewegungen aufeinander abzustimmen. Erst wenn dem Beobachter der Versuchsaufbau erklärt wird, wird klar, dass es sich auf beiden Monitoren um denselben Fisch handelt.

Auf unsere Realität bezogen bedeutet das, dass die dreidimensionale Realität, in der wir leben, nur die Projektion einer tieferen Realität darstellt. Auf der Ebene dieser tieferen Realität kann eine Kommunikation augenblicklich und ohne Zeitverzug erfolgen, denn auf dieser tieferen Ebene sind die Teilchen miteinander verbunden, weil sie ein Teil des gleichen Hologramms sind. Das bedeutet, dass jegliche Trennung, die wir in unserer Realität empfinden auf einer falschen Vorstellung basiert und wir uns über die Zusammengehörigkeit auf der tieferen Ebene nicht bewusst sind.

So lässt sich im Übrigen auch das augenscheinliche Phänomen der Telekinese erklären. Denn wenn es gelingt, auf gedanklicher Ebene bewusst auf die tiefe Realitätsebene zuzugreifen, dann ist es möglich, Zugriff auf einen Gegenstand zu haben bzw. ihn zu manipulieren, bevor er in unsere Realität projiziert wird.

Und dennoch, auf die Frage, woraus unsere physikalische Welt besteht, würden die meisten wohl antworten: aus Materie und Energie.

Doch die modernen Errungenschaften in Technik, Biologie und Physik zeigen uns, dass Information ein genauso wichtiger Bestandteil der Welt ist. Ein Roboter in der Autofabrik kann auf Vorräte aus Metall und Kunststoff zugreifen – aber er vermag damit nichts anzufangen, wenn ihm nicht ausführliche Anweisungen sagen, welche Teile er in welcher Weise zusammenfügen soll.

Ein Ribosom in einer menschlichen Körperzelle verfügt über Aminosäuren als Baumaterial und wird durch die Umwandlung des Energiespeichermoleküls ATP in ADP mit Energie versorgt – aber ohne die Information, die in der DNA des Zellkerns gespeichert ist, vermag es keine Proteine zu synthetisieren. Und auch in der Physik hat uns die Entwicklung der letzten hundert Jahre gezeigt, dass Information in physikalischen Systemen und Prozessen eine entscheidende Rolle spielt.

Es gibt sogar eine Interpretation der Quantentheorie, initiiert durch John A. Wheeler von der Universität Princeton, wonach die physikalische Welt eigentlich aus Information besteht, während Energie und Materie nur Oberflächenphänomene sind. Diese Sicht der Dinge lädt dazu ein, einen neuen Blick auf alte Fragen zu werfen, denn die Speicherkapazität von Festplatten und anderen elektronischen Geräten wächst sprunghaft.

  • Wann und wo wird dieser Fortschritt enden?
  • Wie hoch ist die ultimative Speicherkapazität eines Geräts, das weniger als ein Gramm wiegt und nicht größer ist als ein Kubikzentimeter – das heißt, etwa so groß wie ein Computerchip?
  • Wie viel Information benötigen wir, um das gesamte Universum zu beschreiben?
  • Könnte diese Beschreibung in den Speicher eines Computers passen?
  • Könnten wir also, wie der englische Dichter William Blake einst schrieb, die Welt in einem Sandkorn erkennen? – oder ist diese Idee nur eine Ausgeburt dichterischer Fantasie?
  • Erstaunlicherweise beantworten jüngste Entwicklungen im Bereich der theoretischen Physik tatsächlich einige dieser Fragen – und die Antworten liefern uns wichtige Hinweise auf eine umfassende Theorie der Realität.

Aus den geheimnisvollen Eigenschaften von Schwarzen Löchern zum Beispiel haben Physiker*innen eine absolute Obergrenze für die Information hergeleitet, die in einem Raumgebiet oder in einer bestimmten Materie- und Energiemenge enthalten sein kann. Das wiederum stützt die Feststellung, unser Universum, das wir in drei Raumdimensionen wahrnehmen, sei in Wirklichkeit auf eine zweidimensionale Oberfläche geschrieben – wie ein Hologramm.

Doch wie können wir das verstehen?

Nun, die formale Informationstheorie entstand 1948 mit zwei grundlegenden Veröffentlichungen des amerikanischen Technikers und Mathematikers Claude E. Shannon. Er führte das heute gebräuchlichste Maß für den Informationsgehalt ein: die Entropie (Maß der Unwissenheit).

Die Entropie war seit Langem ein zentraler Begriff der Thermodynamik, des Zweiges der Physik, der sich mit der Wärme beschäftigt. Anschaulich ausgedrückt ist die thermodynamische Entropie ein Maß für die Unordnung in einem physikalischen System.

Präziser definierte der österreichische Physiker Ludwig Boltzmann im Jahre 1877 die Entropie durch die Anzahl der unterschiedlichen mikroskopischen Zustände, welche die Teilchen eines Stücks Materie einnehmen können, ohne dass sich dessen makroskopische Eigenschaften verändern.

Angewandt auf die Luft in einem Zimmer müsste man – bei vorgegebenen Werten für Druck und Temperatur – alle möglichen Konfigurationen zusammenzählen, welche die einzelnen Gasmoleküle in diesem Zimmer bezüglich Ort und Geschwindigkeit aufweisen. Auf der Suche nach einem Maß für den Informationsgehalt einer Nachricht kam Shannon auf eine Formel von der gleichen Gestalt wie Ludwig Boltzmanns Definition der Entropie.
Die Shannon’sche Entropie einer Nachricht ist gleich der Anzahl der binären Ziffern oder Bits, die zu ihrer Kodierung erforderlich sind.
Shannons Entropie sagt uns nichts über den Wert einer Information, der ohnehin stark vom Kontext abhängig ist. Doch als objektives Maß für die Menge der Information ist seine Definition in Wissenschaft und Technik ungemein nützlich. Zum Beispiel spielt die Shannon-Entropie für die Entwicklung moderner Kommunikationsgeräte – ob Handys, Modems oder CD-Player – eine wichtige Rolle.

Thermodynamische und Shannon’sche Entropie sind begrifflich eng verwandt: Der in der Boltzmann-Entropie gesammelten Anzahl möglicher Anordnungen entspricht die Menge an Shannon-Information, die man benötigen würde, um eine spezielle Anordnung zu verwirklichen.
Allerdings gibt es zwischen den beiden Entropien deutliche Unterschiede. Erstens drücken Chemiker*innen oder Kühltechniker*innen die thermodynamische Entropie in Einheiten von Energie geteilt durch die Temperatur aus, während Informatiker*innen die Shannon-Entropie in dimensionslosen Bits angeben. Dieser Unterschied ist mehr oder weniger eine Frage der Definition.
Doch sogar nach Umformung in gemeinsame Einheiten weichen die typischen Größenordnungen der beiden Entropien enorm voneinander ab. Ein Mikrochip, der ein Gigabyte (109 Bytes) an Daten enthält, hat eine Shannon-Entropie von rund 1010 Bits, denn ein Byte entspricht acht Bits. Das ist verschwindend wenig gegenüber der thermodynamischen Entropie des Chips, die bei Raumtemperatur etwa 1023 Bits beträgt. Der gigantische Unterschied ergibt sich, weil die beiden Entropien für unterschiedliche Freiheitsgrade berechnet werden. Ein Freiheitsgrad ist jede variable Größe im betrachteten System, also z. B. eine der drei Ortskoordinaten oder eine der drei Geschwindigkeitskomponenten jedes Teilchens.

Aber welches ist dann die größtmögliche Informationsdichte?

Die Shannon-Entropie des Chips berücksichtigt nur den Gesamtzustand jedes winzigen Transistors, der in den Siliziumkristall geätzt wurde. Der Transistor ist AN oder AUS, im Zustand NULL oder EINS: Er hat einen einzigen binären Freiheitsgrad.

Die thermodynamische Entropie hingegen hängt von den Zuständen all der Milliarden Atome und freien Elektronen ab, aus denen sich jeder Transistor zusammensetzt. Mit jedem Miniaturisierungsschritt rückt allerdings der Tag ein wenig näher, an dem jedes Atom für uns ein Bit Information zu speichern vermag – und zugleich nähert sich die nutzbare Shannon-Entropie des jeweils modernsten Mikrochips allmählich der thermodynamischen Entropie des Materials. Wenn beide Entropien für dieselben Freiheitsgrade berechnet werden, sind sie gleich groß.

Und was sind dann die ultimativen Freiheitsgrade?

 Nun, Atome sind aus Elektronen und Kernen aufgebaut, Kerne aus Protonen und Neutronen, und diese wiederum aus Quarks. Viele Physiker*innen glauben heute, dass Elektronen und Quarks Anregungszustände sogenannter Superstrings sind, und vermuten, dies seien die fundamentalsten Bausteine der Natur. Doch die Wechselfälle eines Jahrhunderts physikalischer Entdeckungen sollten uns vor Dogmatismus warnen: Denn es könnte im Universum mehr Strukturebenen geben, als unsere physikalische Schulweisheit sich träumen lässt. Die ultimative Informationskapazität eines Stücks Materie – mit anderen Worten, seine wahre thermodynamische Entropie – kann nicht berechnet werden, solange das Wesen der ultimativen Bestandteile der Materie oder der tiefsten Strukturebene nicht bekannt ist. Diese Unkenntnis verursacht in der praktischen Thermodynamik keine Probleme. Für die Analyse eines Automotors z. B. spielen die Eigenschaften der Quarks keine Rolle, denn unter den relativ „friedlichen“ Bedingungen eines Verbrennungsmotors verändern sie ihren Zustand nicht.

Doch angesichts des atemberaubenden Fortschritts der Miniaturisierung kann man sich rein theoretisch den Tag ausmalen, an dem die Quarks als Informationsspeicher dienen werden – vielleicht ein Bit pro Quark. Wie viel Information würde dann in einen Kubikzentimeter passen? Und wie viel erst, wenn wir Superstrings oder noch tiefere, bislang nicht einmal hypothetisch angedachte Ebenen nutzen könnten?

Überraschenderweise hat die Entwicklung der Gravitationsphysik in den letzten drei Jahrzehnten auf diese scheinbar verstiegenen Fragen eine Reihe von klaren Antworten geliefert.
Eine zentrale Rolle in dieser Entwicklung spielen die Schwarzen Löcher. Ihre Existenz folgt aus der Allgemeinen Relativitätstheorie, der von Albert Einstein 1915 formulierten geometrischen Beschreibung der Gravitation.
In dieser Theorie ist die Schwerkraft letztlich nichts anderes als eine Krümmung der Raumzeit, wodurch Objekte sich so bewegen, als wirke eine Kraft auf sie. Diese Krümmung wird ihrerseits durch die Anwesenheit von Materie und Energie verursacht. Gemäß Einsteins Gleichungen krümmt eine ausreichend dichte Ansammlung von Materie oder Energie die Raumzeit so stark, dass sie förmlich zerreißt und ein Schwarzes Loch bildet.
Die Gesetze der Relativitätstheorie verbieten, dass irgendetwas, das in ein Schwarzes Loch gefallen ist, jemals wieder herauskommt – zumindest im Rahmen der klassischen Physik, das heißt ohne Berücksichtigung von Quanteneffekten. Die kritische Grenze des Bereichs, aus dem es kein Entkommen gibt, heißt Ereignishorizont. Im einfachsten Fall ist er eine Kugelfläche, deren Radius desto größer ist, je mehr Masse das Schwarze Loch besitzt.

Es ist unmöglich herauszufinden, was innerhalb eines Schwarzen Lochs passiert. Keinerlei Information kann den Ereignishorizont verlassen und in die Außenwelt entkommen. Doch wenn ein Stück Materie für immer in einem Schwarzen Loch verschwindet, hinterlässt es gewisse Spuren. Seine Energie – denn jede Masse entspricht gemäß Einsteins Formel E = mc2 einer Energie und umgekehrt – macht sich dauerhaft als Massenzunahme des Schwarzen Lochs bemerkbar. Wird Materie eingefangen, während sie das Schwarze Loch umkreist, so kommt ihr Drehimpuls zu dem des Schwarzen Lochs hinzu. Sowohl Masse als auch Drehimpuls eines Schwarzen Lochs lassen sich anhand der Wirkung auf die umgebende Raumzeit messen.

Auf diese Weise sind auch Schwarze Löcher den Gesetzen der Energie- und Drehimpulserhaltung unterworfen. Aber ein anderes fundamentales Gesetz, der Zweite Hauptsatz der Thermodynamik, scheint verletzt zu werden, denn:

Entropie geht niemals verloren.

Der Zweite Hauptsatz drückt die alltägliche Beobachtung aus, dass die meisten Naturvorgänge irreversibel sind: Eine Teetasse fällt vom Tisch und zerbricht, aber niemand hat jemals Scherben gesehen, die von selbst in die Höhe springen und sich zu einer Teetasse zusammensetzen. Der Zweite Hauptsatz der Thermodynamik verbietet solche Umkehrprozesse. Er besagt, dass die Entropie eines abgeschlossenen physikalischen Systems niemals abnehmen kann; sie kann bestenfalls konstant bleiben, doch meistens nimmt sie zu.

Diese Aussage ist nicht nur grundlegend für die physikalische Chemie und die Ingenieurwissenschaften, sondern vielleicht das physikalische Gesetz mit der größten Bedeutung außerhalb der Physik.

Wie John A. Wheeler als Erster betonte, verschwindet mit der Materie auch ihre Entropie auf Nimmerwiedersehen im Schwarzen Loch und der Zweite Hauptsatz scheint außer Kraft gesetzt zu sein.

Den Schlüssel zur Lösung dieses Rätsels lieferten 1970 unabhängig voneinander Demetrious Christodoulou (damals Student bei John A. Wheeler in Princeton) und Stephen W. Hawking von der Universität Cambridge (England). Sie bewiesen, dass bei verschiedenen Prozessen, etwa bei der Verschmelzung Schwarzer Löcher, die Gesamtfläche der Ereignishorizonte niemals abnimmt.

Wenn ein Stern zu einem Schwarzen Loch kollabiert, übertrifft dessen Entropie jene des Sterns bei Weitem. 1974 zeigte Hawking, dass Schwarze Löcher aufgrund von Quanteneffekten spontan thermische Strahlung aussenden, die sogenannte Hawking-Strahlung. Das Christodoulou-Hawking-Theorem versagt angesichts dieses Phänomens, denn die Masse des Schwarzen Lochs nimmt durch das Abstrahlen von Energie ab, und damit schrumpft auch sein Ereignishorizont. Der Verallgemeinerte Zweite Hauptsatz hat hingegen kein Problem mit der Hawking-Strahlung: Durch die Entropie der freiwerdenden Strahlung wird die Abnahme der Entropie des Schwarzen Lochs mehr als kompensiert.

Im Jahre 1986 betrachtete Rafael D. Sorkin von der Universität Syracuse (US-Bundesstaat New York) die Eigenschaft des Ereignishorizonts, jede Information im Inneren eines Schwarzen Lochs daran zu hindern, die Ereignisse außerhalb zu beeinflussen. Er folgerte daraus, dass der Verallgemeinerte Zweite Hauptsatz – oder ein sehr ähnliches Gesetz – für jeden denkbaren Prozess gelten muss, den Schwarze Löcher durchlaufen können. Rafael D. Sorkins tiefgründige Überlegung macht klar, dass die Entropie, die in den Verallgemeinerten Zweiten Hauptsatz eingeht, tatsächlich alle möglichen Konfigurationen bis zur fundamentalsten Ebene der Materiestruktur umfasst – ganz unabhängig davon, wie diese Ebene letztlich aussehen mag.

Aus der Hawking-Strahlung lässt sich die Proportionalitätskonstante zwischen der Entropie Schwarzer Löcher und der Fläche ihres Ereignishorizonts bestimmen: Die Entropie eines Schwarzen Lochs ist exakt gleich einem Viertel seiner Horizontfläche, gemessen in Planck-Flächen. Die Planck-Länge ist die fundamentale Längeneinheit für Gravitation und Quantenmechanik; sie beträgt 1033 Zentimeter. Die Planck-Fläche ist das Quadrat der Planck-Länge, also 1066 Quadratzentimeter. Selbst nach den Maßstäben der Thermodynamik ergeben sich daraus immense Entropiewerte. Die Entropie eines Schwarzen Lochs von nur einem Zentimeter Durchmesser würde 1066 Bits betragen – das entspricht der thermodynamischen Entropie eines Wasserwürfels mit zehn Milliarden Kilometern Kantenlänge.

Der Verallgemeinerte Zweite Hauptsatz erlaubt uns, für die Informationskapazität jedes abgeschlossenen physikalischen Systems Obergrenzen zu bestimmen, die für die gesamte Information auf allen Strukturebenen – selbst auf den bislang unentdeckten – gelten.

1980 begann die Wissenschaft die erste derartige Grenze zu untersuchen, die sogenannte universelle Entropie-Grenze. Sie gibt an, wie viel Entropie in einer gegebenen Masse von gegebener Ausdehnung maximal enthalten sein kann.

Leonard Susskind von der Universität Stanford hatte 1995 eine ähnliche Idee, die sogenannte holografische Grenze. Sie bezeichnet die maximale Entropiemenge in einem gegebenen Volumen, das Materie und Energie enthält. In seiner Arbeit zur holografischen Grenze betrachtete Susskind eine beliebige annähernd kugelförmige isolierte Masse, die selbst kein Schwarzes Loch ist und in eine geschlossene Fläche der Größe A hineinpasst. Wenn die Masse zu einem Schwarzen Loch kollabieren kann, ist dessen Horizontfläche kleiner als A und die Entropie des Schwarzen Lochs folglich kleiner als A/4. Da nach dem Verallgemeinerten Zweiten Hauptsatz die Entropie des Systems nicht abnehmen darf, kann die ursprüngliche Entropie der Masse nicht größer als A/4 gewesen sein. Daraus ergibt sich, dass die Entropie eines abgeschlossenen Systems mit Grenzfläche A kleiner als A/4 sein muss.

Was aber, wenn die Masse nicht spontan kollabiert?

 Wie die Wissenschaft im Jahre 2000 zeigte, kann ein winziges Schwarzes Loch verwendet werden, um das System in ein Schwarzes Loch zu verwandeln, das sich kaum von demjenigen in Susskinds Überlegung unterscheidet. Die Grenze ist somit unabhängig von der Zusammensetzung des Systems oder dem Wesen der fundamentalsten Naturbausteine. Sie hängt ausschließlich vom Verallgemeinerten Zweiten Hauptsatz ab. Damit können wir nun einige der kniffligen Fragen über die ultimativen Grenzen der Informationskapazität beantworten: Ein Gerät mit einem Zentimeter Durchmesser kann im Prinzip bis zu 1066 Bits speichern – eine unvorstellbare Menge. Das sichtbare Universum enthält mindestens 10100 Bits Entropie, die sich also im Prinzip in einer Kugel von einem Zehntel Lichtjahr Durchmesser unterbringen ließen. Doch da es schwierig ist, die Entropie des Universums zu schätzen, sind viel größere Werte durchaus plausibel; sie könnten eine Kugel erfordern, die fast so groß ist wie das Universum selbst.

Ein Aspekt der holografischen Grenze ist besonders erstaunlich: Die maximal mögliche Entropie hängt von der Grenzfläche ab anstatt vom Volumen. Angenommen, wir türmen Speicherchips zu einem großen Haufen. Die Anzahl der Transistoren – die gesamte Speicherkapazität – wächst mit dem Volumen des Haufens.
Dasselbe gilt für die gesamte thermodynamische Entropie aller Chips. Doch erstaunlicherweise wächst die theoretische ultimative Informationskapazität des Volumens, das der Haufen erfüllt, nur mit der Größe der Oberfläche. Da das Volumen schneller wächst als die Oberfläche, muss die Gesamtentropie der Chips irgendwann die holografische Grenze überschreiten. Wie es scheint, versagt dann entweder der Verallgemeinerte Zweite Hauptsatz oder unsere Vorstellungen von Entropie und Informationskapazität brechen zusammen. Tatsächlich aber ist es der Haufen selbst, der zusammenbricht: Er kollabiert vor Erreichen der kritischen Größe unter seiner eigenen Schwerkraft zu einem Schwarzen Loch. Danach vergrößert jeder weitere Speicherchip die Masse und die Horizontfläche des Schwarzen Lochs, wie es sich nach dem Verallgemeinerten Zweiten Hauptsatz gehört. Der überraschende Befund, dass die Informationskapazität von der Größe der Oberfläche abhängt, findet seine natürliche Erklärung im „holografischen Prinzip“, das der Nobelpreisträger Gerard’t Hooft von der Universität Utrecht (Niederlande) 1993 aufstellte und das Leonard Susskind weiterentwickelte.

In unserer Alltagswelt ist ein Hologramm eine spezielle Art von Fotografie, die ein dreidimensionales Bild erzeugt, wenn man sie in der richtigen Weise beleuchtet. Die gesamte zur Beschreibung der dreidimensionalen Szene nötige Information ist als Muster heller und dunkler Gebiete auf dem zweidimensionalen Film kodiert.

Das holografische Prinzip besagt, dass etwas Analoges für die komplette physikalische Beschreibung eines beliebigen Systems gilt, das in einem dreidimensionalen Gebiet liegt. Es gibt demnach eine andere, nur auf der zweidimensionalen Grenzfläche des Gebiets definierte physikalische Theorie, welche die dreidimensionale Physik vollständig beschreibt. Wenn sich ein dreidimensionales System vollständig durch eine physikalische Theorie ausdrücken lässt, die nur auf dessen zweidimensionaler Grenze operiert, dann sollte der Informationsgehalt des Systems nicht größer sein als derjenige der Beschreibung auf der Grenzfläche.

Nach diesen doch recht umfangreichen und auf wissenschaftlicher Ebene betrachteten Ergebnissen, stellt sich uns die berechtigte Frage:

Können wir das holografische Prinzip auf das Universum als Ganzes anwenden?

 Wir wissen, das wirkliche Universum ist ein vierdimensionales System: Genauer gesagt, es hat ein räumliches Volumen und erstreckt sich in der Zeit. Wenn also die Physik des Universums holografisch ist, dann muss eine alternative, auf einer dreidimensionalen Grenze der Raumzeit gültige Menge physikalischer Gesetze existieren, die zu der uns bekannten vierdimensionalen Physik äquivalent ist.

Noch kennen wir keine dreidimensionale Theorie, die so etwas leistet. Und was sollte uns als Grenze des Universums dienen? Ein erster Schritt zur Prüfung dieser Ideen ist das Studium von vereinfachten Modellen des Universums.

Ein Beispiel für solche Modelle sind die sogenannten Anti-de-Sitter-Raumzeiten. Der holländische Astronom Willem de Sitter entwickelte 1917 das ursprüngliche De-Sitter-Modell als Lösung der Einstein’schen Gleichungen mit einer zusätzlichen abstoßenden Kraft, der „kosmologischen Konstanten“.
Die De-Sitter-Raumzeit ist leer, hochgradig symmetrisch und dehnt sich beschleunigt aus. 1997 schlossen Astronomen aus der Untersuchung ferner Supernova-Explosionen, dass sich die Expansion unseres Universums beschleunigt (Spektrum der Wissenschaft3/2001, S. 30). Wahrscheinlich wird unser Kosmos darum künftig immer mehr einem De-Sitter-Modell ähneln. Ersetzt man nun in den Einstein’schen Gleichungen die Abstoßung durch eine Anziehung, so erhält man die ebenso symmetrische Anti-de-Sitter-Raumzeit. Wichtig für das holografische Prinzip ist, dass diese Raumzeit eine Begrenzung hat, die „im Unendlichen“ liegt und große Ähnlichkeit mit unserer gewöhnlichen Raumzeit aufweist.

Schön und gut, werden Sie nun sagen, aber gleichzeitig auch die Frage stellen:

In wie vielen Dimensionen leben wir dann?

 Nun, mithilfe der Anti-de-Sitter-Raumzeit haben Theoretiker ein konkretes Beispiel für die Wirkung des holografischen Prinzips entwickelt: Ein mittels Superstring-Theorie beschriebenes Universum mit Anti-de-Sitter-Raumzeit ist völlig äquivalent zu einer Quantenfeldtheorie, die auf der Begrenzung dieser Raumzeit operiert. Somit wird die komplette Superstring-Theorie in einem Anti-de-Sitter-Universum vollständig auf die Begrenzung dieser Raumzeit abgebildet.

1997 vermutete Juan Maldacena, der damals an der Harvard-Universität in Cambridge (Massachusetts) tätig war, erstmals eine solche Beziehung für den Fall eines fünfdimensionalen Anti-de-Sitter-Modells. Später bestätigten Edward Witten vom Institute for Advanced Study in Princeton sowie Steven S. Gubser, Igor R. Klebanov und Alexander M. Polyakov von der Universität Princeton diese Vermutung und fanden weitere Beispiele für das holografische Prinzip bei Raumzeiten unterschiedlichster Dimensionen.

Das bedeutet, dass zwei scheinbar völlig verschiedene Theorien – die nicht einmal in Räumen derselben Dimensionszahl gelten – äquivalent sind. Intelligente Bewohner*innen eines dieser Universen könnten nicht unterscheiden, ob sie in einem fünfdimensionalen, von einer Stringtheorie beschriebenen Kosmos leben oder in einer vierdimensionalen Welt, auf die eine Quantenfeldtheorie mit punktförmigen Teilchen zutrifft.

Natürlich könnte ihnen die Struktur ihres Gehirns ein massives Vorurteil zugunsten einer dieser Beschreibungen aufdrängen – so wie unser angeborener „gesunder Menschenverstand“ die Wahrnehmung konstruiert, dass unser Universum drei räumliche Dimensionen besitzt.

Die holografische Äquivalenz lässt sich im Prinzip nutzen, um ein kompliziertes Problem – etwa das Verhalten von Quarks und Gluonen – zu vereinfachen, indem es von der vierdimensionalen Grenz-Raumzeit in die hochgradig symmetrische fünfdimensionale Anti-de-Sitter-Raumzeit verlegt wird. Das funktioniert auch umgekehrt. So konnte Witten zeigen, dass ein Schwarzes Loch in einer Anti-de-Sitter-Raumzeit sich in heiße Strahlung verwandelt, wenn man zur alternativen Physik auf der Grenz-Raumzeit übergeht. Die Entropie des Schwarzen Lochs – immer noch ein zutiefst mysteriöser Begriff – geht dabei in die wohlbekannte Entropie der Strahlung über.

1999 schlug Raphael Bousso, der damals an der Stanford-Universität forschte, eine modifizierte holografische Grenze vor, die – wie sich inzwischen gezeigt hat – auch in Situationen funktioniert, in denen die zuvor definierten Grenzen versagen.
Boussos Überlegung beginnt mit irgendeiner geeigneten zweidimensionalen Fläche; sie kann kugelförmig geschlossen sein oder offen wie ein Blatt Papier. Von einer Seite dieser Fläche geht nun – von allen Punkten gleichzeitig und senkrecht zu der Fläche – ein kurzer Lichtpuls aus. Verlangt wird nur, dass die Lichtstrahlen zunächst konvergieren (sich einander nähern).

Beispielsweise erfüllt von der Innenfläche einer Kugel abgestrahltes Licht diese Bedingung. Nun betrachtet man die Entropie der Energie und Materie, die von den imaginären Lichtstrahlen durchquert werden – aber nur bis sie beginnen, sich zu überschneiden. Bousso vermutete, dass diese Entropie nicht größer sein kann als die Entropie der ursprünglichen Fläche – also ein Viertel dieser Fläche in Planck-Einheiten. Dies ist eine andere Methode, die Entropie zu bestimmen, als die ursprüngliche holografische Grenze. Boussos Grenze bezieht sich nicht auf die Entropie einer ganzen Region zu einem bestimmten Zeitpunkt, sondern auf die Summe lokaler Entropien zu verschiedenen Zeiten: Gezählt werden alle Teilregionen, die vom Lichtblitz der Oberfläche „beleuchtet“ werden. Boussos Grenze enthält andere Entropie-Limits als Spezialfälle, vermeidet aber deren Nachteile. Sowohl die universelle Entropie-Grenze als auch die holografische Grenze nach Gerard ’t Hooft und Leonard Susskind können für isolierte Systeme, die sich nicht schnell verändern und keine starken Gravitationsfelder enthalten, aus der Bousso-Grenze abgeleitet werden. Wenn diese einschränkenden Bedingungen verletzt werden – etwa im Fall einer kollabierenden Materiekugel, die sich bereits innerhalb eines Schwarzen Lochs befindet –, dann versagen diese Grenzen, während Boussos Grenze weiterhin gilt. Außerdem hat Bousso gezeigt, dass sich mit seiner Strategie die zweidimensionalen Flächen ausfindig machen lassen, auf denen Hologramme der Welt untergebracht werden können. Insgesamt haben Forscher noch viele andere Entropie-Limits vorgeschlagen …

Gerade die Vielfalt an Variationen über das holografische Thema zeigt, dass es noch längst nicht den Status eines physikalischen Gesetzes erreicht hat. Doch obwohl wir die holografische Denkweise noch nicht ganz verstehen, scheint sie durchaus Zukunft zu haben. Wenn das so ist, muss der seit fünfzig Jahren herrschende Glaube, die Feldtheorie sei die ultimative Sprache der Physik, neuen Ideen weichen.

Vielleicht weist uns die Holografie den Weg zu einer fundamentalen Theorie. Wie könnte sie aussehen?

Einige Forscher, insbesondere Lee Smolin vom Perimeter Institute for Theoretical Physics in Waterloo (Kanada), schließen aus dem holografischen Ansatz, dass eine endgültige Theorie sich weder mit Feldern befassen wird noch mit Objekten in der Raumzeit, sondern mit dem Informationsaustausch zwischen physikalischen Prozessen. Dies wäre der endgültige Triumph der Idee, dass die Welt aus Information besteht.

Fazit: Die Welt befindet sich bereits im Science-Fiction-Zustand.

Und auch der Kontrolle des Menschen sind mittlerweile keine Grenzen mehr gesetzt, die durch die augenblicklich existierende Technologie auf die Bevölkerung ausgeübt wird. Die einzige Verzögerung liegt nur noch in der Anwendbarkeit. Es ist wahr, dass es noch eine gewisse Feinabstimmung, ein Ausfeilen und eine gewisse Verteilung der Technologie geben wird, die in den kommenden Jahren stattfinden kann. Es wird auch neue Entwicklungen geben, die die unterschiedlichen vorhandenen Technologien zusammenführen werden. Und es wird Strategien geben, um Menschen dazu zu bringen, das „Zeichen“ anzunehmen.

Aber die totale Kontrolle ist nicht länger ein alptraumhaftes Hirngespinst.

 Warten wir noch eine kurze Weile, dann wird der Krieg um die Kontrolle des Bewusstseins gewonnen oder verloren sein.

Der Schlüssel zum Verständnis der Bewusstseinskontrolle ist das Verständnis für die Möglichkeiten des Lebens selbst, und das ist vielleicht die Rettung für die Menschen dieses Planeten. Denn Bewusstseinskontrolle ist ein vermindernder Vorgang, durch den eine Lebenseinheit in ihrer Kraft so lange reduziert wird, bis sie unter die Kontrolle der manipulierenden Kraft gestellt ist. Es ist ein Mittel, durch das der Mensch in ein Tier oder eine Maschine verwandelt wird. Die Notwendigkeit ist offensichtlich.

Es ist eine Herausforderung an uns, uns selbst und unsere Mitmenschen von all den verschiedenen Arten der Bewusstseinskontrolle zu befreien, die augenblicklich unser Leben formen und beeinflussen (Fernsehen, Werbung, Schulbildung, religiöse Indoktrination, politische Korrektheit, …).

Wir haben es selbst in der Hand. Denn an dem einen Ende der Skala steht das psychisch-konditionierte Tier, der Mensch, der in seinem Intellekt reduziert ist, und am anderen Ende der Skala der Möglichkeiten, die der Menschheit offenstehen, gibt es keine Einschränkung.

Obwohl es eine kontroverse Meinung sein mag, so glaube ich doch, dass die Entfaltungsmöglichkeiten der Menschen grenzenlos sind, sobald sie von einschränkenden Glaubensinhalten und Täuschungen zunehmend befreit wurden. Denn all diese Inhalte teilen ihnen letztendlich mit, dass sie unglückliche Wesen sind, die die Wünsche der Kontrolleure ausführen müssen. Technologie kann in der Tat dazu verwendet werden, die Grenzen der menschlichen Freiheit zu vernichten, aber der andere Teil der Herausforderung ist der Einsatz von Technologie für das Werk der Befreiung.

 

Letztendlich können alle Barrieren, die sich unserer
Evolution entgegenstellen, beseitigt werden, denn alle
Begrenzungen der menschlichen Freiheit sind von der
Bewusstseinskontrolle aufgezwungen worden.