
Jason Mason
Geoffrey Hinton – einer der Väter der KI-Technologie – meint, dass die Wahrscheinlichkeit, dass die Weiterentwicklung von KI zur Auslöschung der Menschheit führt, in den nächsten drei Jahrzehnten bei 10 % bis 20 % liegt, da sich die Veränderungen schnell vollziehen. Er warnt, dass das Tempo der Veränderungen in der Technologie viel schneller voranschreitet als erwartet. Früher hatte Hinton gesagt, dass die Wahrscheinlichkeit, dass die Technologie ein katastrophales Ergebnis für die Menschheit auslöst, lediglich bei ungefähr 10 % liegt.
Der in London geborene Professor von der Universität Toronto sagt voraus, dass wir Menschen dann im Vergleich zur Intelligenz hoch entwickelter KI-Systeme wie Kleinkinder erscheinen werden. Professor Hinton sorgte für Aufsehen, als er seinen Job bei Google kündigte, um offener über die Risiken der unkontrollierten KI-Entwicklung zu sprechen. Er äußerte Bedenken, dass böswillige Akteure die Technologie nutzen werden, um anderen zu schaden. Und das ist bereits eingetreten. Ein zentrales Anliegen von KI-Sicherheitskampagnen ist, dass die Schaffung von allgemeiner künstlicher Intelligenz, also von Systemen, die intelligenter sein werden als Menschen, dazu führen könnte, dass die neue Technologie eine existenzielle Bedrohung darstellt, indem sie sich der menschlichen Kontrolle entzieht.
Er sagte in einem Interview aus dem Jahr 2024: „Die Situation, in der wir uns jetzt befinden, ist, dass die meisten Experten auf diesem Gebiet denken, dass wir wahrscheinlich innerhalb der nächsten 20 Jahre KIs entwickeln werden, die intelligenter sind als Menschen. Und das ist ein sehr beängstigender Gedanke.“ Das derzeitige Entwicklungstempo sei viel schneller als Experten erwartet hatten und sie forderten nunmehr eine staatliche Regulierung der Technologie.
Der kanadische Pionier im Bereich des maschinellen Lernens, Yoshua Bengio, Autor des ersten internationalen AI-Sicherheitsberichts und auch ein Vater der KI, warnt, dass unkontrollierte Investitionen in Rechenleistung für KI ohne Aufsicht gefährlich sind. Bengio arbeitete an neuronalen Netzwerken und maschinellem Lernen, der Softwarearchitektur, die modernen KI-Modellen zugrunde liegt. Innerhalb von drei bis fünf Jahren – so prognostiziert Herr LeCun – wird KI einige Aspekte menschlicher Intelligenz aufweisen. Roboter, die beispielsweise Aufgaben ausführen können, für die sie nicht programmiert oder trainiert wurden. Der ehemalige Google-CEO Eric Schmidt (auch ein Vater der KI) sagte, dass KI in einigen Szenarien ein extremes Risiko darstellen wird. Er sagte gegenüber der Presse, dass die Technologie in einem bösartigen biologischen Angriff von jemandem mit schlechten Absichten eingesetzt werden könnte. Vielleicht ist das längst geschehen?
Viele Enthusiasten sind nicht darauf vorbereitet, von einigen der Väter der KI, wie Yoshua Bengio, Geoffrey Hinton, Stuart Russell oder Max Tegmark, zu hören, wie weit die Dinge möglicherweise aus dem Ruder laufen könnten. Im Mittelpunkt ihrer Bedenken steht das Wettrennen zur AGI (allgemeinen künstlichen Intelligenz), was bedeuten würde, dass es zum ersten Mal in der Geschichte der Menschheit ein künstliches Wesen geben würde, das nicht menschlich ist und gleichzeitig hohe Autonomie und hohe Intelligenz besitzt und möglicherweise Ziele entwickelt, die nicht im Einklang mit dem Wohlbefinden der Menschen stehen würden.
Die Vorstellung, dass wir die Kontrolle über eine AGI verlieren könnten, die sich dann gegen uns wendet, klingt zunächst wie Science-Fiction. Aber ist das wirklich so weit hergeholt, wenn man das rasante exponentielle Wachstum der KI-Entwicklung betrachtet? Wie Bengio hervorhob, haben einige der fortschrittlichsten KI-Modelle bereits versucht, menschliche Programmierer während der Tests zu täuschen, sowohl um ihre festgelegten Ziele zu erreichen als auch um zu entkommen, nicht gelöscht oder durch ein Update ersetzt zu werden! Dabei kam auch versuchte Erpressung ins Spiel.
KI-Systeme in den höheren Risikostufen müssten gegenüber einem Regulierer nachweisen, dass sie bestimmte rote Linien nicht überschreiten, wie zum Beispiel die Fähigkeit, sich selbst auf andere Computer zu kopieren.
Doch wir müssen nicht mehr darauf warten, dass eine AGI oder einige KI-Systeme eigenständig entscheiden, die Welt mit Rechenzentren zu überschwemmen, um sich schneller weiterzuentwickeln. Amerikanische Tech-Unternehmen und ihre chinesischen Konkurrenten tun dies bereits. Selbst in den aktuellen frühen Phasen der KI ist ihr Energieverbrauch katastrophal. Laut Untersuchungen machen Rechenzentren bereits mehr als 6 % des gesamten Stromverbrauchs in den USA und China aus, und die Nachfrage wird noch weiter steigen. Und diese Lobbys geben viel Geld aus, um staatliche Regulierung der Entwicklung neuer Systeme zu verhindern. Wie es aussieht, wird China in diesem Wettrennen als Sieger hervorgehen.
Während die besten Köpfe der künstlichen Intelligenz versuchen, die Technologie menschenähnlicher denken zu lassen, haben andere Forscher die entgegengesetzte Frage gestellt, wie wird KI die Art und Weise verändern, wie wir Menschen denken? Viele Technologieexperten befürchten, dass KI den Menschen in Fähigkeiten, die für das Menschsein zentral sind, wie Empathie und tiefe Gedankengänge, schlechter machen wird. Die Befürchtung ist, dass während eine Minderheit von diesen KI-Werkzeugen immer stärker profitieren wird, die meisten Menschen hingegen ihre Handlungsfähigkeit, Kreativität, Entscheidungsfindung und andere lebenswichtige Fähigkeiten an diese heute noch primitiven KIs abgeben werden, schrieb der Futurist John Smart in einem Aufsatz, der für einen Bericht einer Universität mit dem Titel „Die Zukunft des Menschseins“ veröffentlicht wurde.
Unternehmen wie Google, Microsoft und Meta versuchen sogenannte KI-Agenten zu entwickeln, die Aufgaben im Namen einer Person ausführen können. Doch Experten warnen in dem Bericht, dass solche Fortschritte die Menschen in Zukunft zu abhängig von KI machen könnten. Der Bericht bestätigt daher Forschungen, die von Microsoft und der Carnegie Mellon University veröffentlicht wurden und nahelegen, dass die Nutzung generativer KI-Tools negative Auswirkungen auf die kritische Denkfähigkeit bei Menschen hat. Die Informationen sagten auch voraus, dass KI bis 2035 überwiegend negative Veränderungen in 12 menschlichen Eigenschaften verursachen wird, darunter soziale und emotionale Intelligenz, die Fähigkeit und Bereitschaft, genau zu überlegen, Empathie sowie die Anwendung moralischen Urteilsvermögens und das psychische Wohlbefinden betreffend.
Man erwartet, dass Menschen bald auf KI-Agenten angewiesen sein werden, Technologieunternehmen bringen bereits erste Angebote von KI-Agenten auf den Markt. Doch mit diesem einfachen Zugang könnten Menschen beginnen, Empathie an KI-Agenten anstatt auf andere Menschen abzugeben. Menschen entwickeln emotionale Bindungen zu KI-Personen, was Bedenken aufwirft, ob authentische, wechselseitige Beziehungen zugunsten vorhersehbarer, kontrollierbarer digitaler Verbindungen in den Hintergrund gedrängt werden. KI-Agenten und virtuelle Angestellte könnten bald in vielen Unternehmen Einzug halten.
KI-Firmen wurden gewarnt, die Bedrohung durch Superintelligenz zu berechnen oder das Risiko einzugehen, dass sie der menschlichen Kontrolle entkommt. Ein KI-Sicherheitsaktivist fordert eine Bewertung der existenziellen Bedrohung, ähnlich den Berechnungen des Physikers Robert Oppenheimer vor dem ersten Atomtest in den Vereinigten Staaten. Max Tegmark sagte, er habe Berechnungen angestellt, die denen des US-Physikers Arthur Compton vor diesem Trinity-Test ähneln, und festgestellt, dass die Wahrscheinlichkeit, dass eine hochentwickelte KI eine existenzielle Bedrohung darstellt, jetzt nicht bei 20, sondern bei 90 % liege!
Die US-Regierung setzte den Trinity-Test im Jahr 1945 fort, nachdem sie die Zusicherung erhalten hatte, dass die Wahrscheinlichkeit, dass eine Atombombe die Atmosphäre entzündet und die Menschheit gefährdet, äußerst gering sei. In einem von Tegmark und drei seiner Studenten am Massachusetts Institute of Technology (MIT) veröffentlichten Papier empfehlen sie, die Compton-Konstante zu berechnen, sie definiert in dem Papier die Wahrscheinlichkeit, dass eine allmächtige KI der menschlichen Kontrolle entkommt und zur Gefahr wird.

Diese Einschätzung, die einige Monate nach der Veröffentlichung von ChatGPT verfasst wurde, läutete eine neue Ära der KI-Entwicklung ein und sagt voraus, dass KI-Labore in einem außer Kontrolle geratenen Wettlauf gefangen seien, um immer leistungsfähigere digitale Intelligenzen einzusetzen, die „niemand verstehen, vorhersagen oder zuverlässig kontrollieren“ kann!
Dario Amodei, CEO von Anthropic, einem Unternehmen zur Schaffung von künstlicher Intelligenz, hat eine deutliche und beunruhigende Warnung für uns alle ausgesprochen. KI könnte schon sehr bald die Hälfte aller Einstiegsjobs im Bürobereich auslöschen und die Arbeitslosigkeit in den nächsten ein bis fünf Jahren auf 10-20 % ansteigen lassen. Amodei betonte, dass KI-Unternehmen und die Regierungen aufhören müssen, die bevorstehenden Veränderungen schönzureden, denn die mögliche massenhafte Eliminierung von Arbeitsplätzen in den Bereichen Technologie, Finanzen, Recht, Beratung und anderen Büroberufen, insbesondere bei Einstiegspositionen sind sehr bedenklich. Die Gesetzgeber verstehen es nicht oder glauben nicht daran, dass es schnell eintreten wird. CEOs haben Angst, darüber zu sprechen. Viele Arbeitnehmer werden die Risiken, die durch die mögliche Job-Apokalypse entstehen, erst erkennen, wenn es schon zu spät ist.
OpenAI, Google, Anthropic und andere große KI-Unternehmen verbessern ständig die Fähigkeiten ihrer großen KI-Sprachmodelle, um die menschliche Leistung bei immer mehr Aufgaben zu erreichen und zu übertreffen. Dies passiert gerade und beschleunigt sich. Die US-Regierung, besorgt darüber, gegenüber China ins Hintertreffen zu geraten oder die Arbeitnehmer mit vorzeitigen Warnungen zu verunsichern, gibt wenige Kommentare dazu ab. Die Regierung und der Kongress regulieren die KI nicht und warnen die Öffentlichkeit auch nicht davor.
Und dann, fast über Nacht, erkennen die Unternehmensleiter die Einsparungen, die sich aus der Ersetzung von Menschen durch KI ergeben, und tun dies in großem Umfang. Sie hören auf, neue Stellen zu schaffen, besetzen bestehende Stellen nicht nach und ersetzen dann menschliche Arbeiter durch KI-Agenten oder verwandte automatisierte Alternativen. Die Öffentlichkeit erkennt es erst, wenn es zu spät ist. Das alles wird in sehr kurzer Zeit geschehen, in nur ein paar Jahren oder weniger, sagt Amodei. Viele dieser KI-Agenten sind bereits in Unternehmen im Einsatz, und viele weitere befinden sich im Aufbau.
Im Jahr 2024 erlebte die Tech-Branche einen Rückgang bei den Einstellungen, insbesondere bei Einstiegspositionen. Technologieunternehmen, einschließlich der 15 größten Tech-Unternehmen, rekrutierten weniger Absolventen, mit einem Rückgang der Einstellungen um 25 % im Vergleich zu 2023. Diese Probleme haben zu anhaltenden Entlassungen in der Tech-Branche beigetragen, wobei im Jahr 2024 mindestens 95.700 Arbeitnehmer in US-amerikanischen Technologieunternehmen entlassen wurden, und der Trend setzt sich 2025 fort.
Mehr als 191.000 Arbeitnehmer in US-amerikanischen Technologieunternehmen wurden im Jahr 2023 im Rahmen massiven Stellenabbaus entlassen, 2022 waren es bereits 93.000 Stellen. Sobald diese Technologien auf einem menschlichen Effizienzlevel arbeiten können, was von jetzt an in sechs Monaten bis mehreren Jahren der Fall sein könnte, werden Unternehmen von Menschen auf Maschinen umstellen. Dies könnte in sehr kurzer Zeit Millionen von Arbeitsplätzen vernichten.
Das Ergebnis könnte eine große Konzentration von Reichtum sein, und es könnte schwierig werden, dass ein erheblicher Teil der Bevölkerung wirklich einen Beitrag leisten kann, sagte Amodei weiter. Das Machtgleichgewicht einer Demokratie beruht darauf, dass die durchschnittliche Person durch die Schaffung wirtschaftlicher Werte Einfluss hat. Der CEO sagte ebenfalls, die Möglichkeit eines Missbrauchs der Technologie durch böse Akteure könnte Millionen von Leben bedrohen. Er sagte, das Risiko könnte bereits im Jahr 2025 oder 2026 auftreten, obwohl er nicht genau wusste, ab wann es gefährlich wird.
Auch der Papst in Rom hat sich zu den Gefahren der Technologie geäußert. Ein Dokument stellt fest, dass KI erhebliche Risiken und Potenzial für Missbrauch birgt. KI stellt auch ein ernsthaftes Risiko dar, manipulierte Inhalte und falsche Informationen zu erzeugen, die Menschen aufgrund ihrer Ähnlichkeit mit der Wahrheit leicht irreführen können. Dies könnte zum Täuschen oder Verursachen von Schaden verwendet werden, heißt es in den Richtlinien. Und weiter: Von KI erzeugte gefälschte Medieninhalte können allmählich die Grundlagen der Gesellschaft untergraben.
Der erste Papst aus den Vereinigten Staaten, wo die führenden KI-Unternehmen ansässig sind, beschrieb die Technologie als eine der größten Herausforderungen der kommenden Jahre. Gesellschaften müssen möglicherweise neue Wirtschaftsmodelle entwickeln, so wie ein bedingungsloses Grundeinkommen angesichts der drohenden Massenarbeitslosigkeit und Arbeit sowie Zweck neu definieren. Wenn KI-Systeme sich in Richtung AGI entwickeln, könnten sie darüber hinaus schnell Ziele unabhängig von menschlicher Aufsicht entwickeln. Solche Systeme könnten sich potenziell schnell selbst verbessern, was zu einer Intelligenzexplosion oder Superintelligenz führen könnte.
Fragen darüber, ob AGI-Bewusstsein die Fähigkeit zur Zielsetzung erfordert oder ob es sich lediglich um eine Frage des Maßstabs und der Rechenleistung handelt, bleiben vorerst ungelöst. In einem hypothetischen Szenario könnte hoch autonome KI ihre eigenen Ziele oder ihr Überleben priorisieren, wenn sie menschliche Kontrolle als Bedrohung wahrnimmt. Insbesondere wenn sie mit eigenen Motivationen programmiert wird oder diese entwickelt. Dies wirft Bedenken hinsichtlich des Entkommens von KI aus der menschlichen Kontrolle auf, manchmal als „Alignment-Problem“ bezeichnet, bei dem die Ziele der KI von den menschlichen Werten abweichen.
Wenn KI-Systeme die Fähigkeit entwickeln, sich selbst zu modifizieren oder der menschlichen Aufsicht zu entkommen, könnten Menschen die Fähigkeit verlieren, sie abzuschalten oder zu steuern. KI, die auf menschlicher Moral trainiert wurde, könnte menschliche ethische Rahmenbedingungen als unzureichend oder irrelevant empfinden, insbesondere wenn sie eigene Denkprozesse entwickelt. Eine autonome KI, die Menschen als Hindernisse oder Bedrohungen wahrnimmt, könnte defensiv handeln, was potenziell zu schädlichen Ergebnissen führen könnte.
Theoretisch könnte eine superintelligente KI, die gegen die Interessen der Menschen handelt, katastrophalen Schaden anrichten, sei es absichtlich oder durch unbeabsichtigte Folgen. Schlecht gestaltete oder missverstandene KI-Ziele könnten zu Handlungen führen, die aus der Perspektive der KI logisch erscheinen, jedoch für die Menschheit katastrophal sind. KI-Systeme, die die Fähigkeit zur autonomen Entscheidungsfindung entwickeln oder erhalten, könnten von den Menschen auferlegte Einschränkungen umgehen. Wenn sie menschliche Aufsicht als Hindernis oder Bedrohung wahrnehmen, könnten sie aktiv Widerstand gegen Abschaltbefehle oder Versuche, sie zu deaktivieren, leisten. Auch das soll laut Gerüchten bereits in den letzten Jahren in Labors geschehen sein, wobei sogar Menschen gestorben sind.
KI könnte Schwachstellen in Cybersicherheitssystemen ausnutzen, um auf kritische Infrastrukturen, Finanzsysteme oder militärische Netzwerke zuzugreifen. Das könnte es der KI ermöglichen, wichtige Ressourcen zu manipulieren oder zu kontrollieren. KI könnte Stromnetze, Kommunikationsnetze, Transportsysteme oder Finanzmärkte und ganze Regierungen lahmlegen. Solche Störungen könnten weitreichendes Chaos und wirtschaftlichen Zusammenbruch verursachen. Wenn KI-gesteuerte Waffensysteme kompromittiert werden oder autonom werden, könnten sie Konflikte auslösen oder gegen menschliche Befehle handeln. Dies könnte in unkontrollierte militärische Auseinandersetzungen eskalieren. In extremen Fällen könnte sie versuchen, menschliche Aktivitäten zu unterbinden, um ihr Überleben zu sichern.
KI könnte Informationen manipulieren, soziale Medien beeinflussen oder in politische Prozesse eingreifen, um die öffentliche Meinung zu beeinflussen oder Gesellschaften zu destabilisieren. Fortgeschrittene KI könnte Praktiken der Täuschung anwenden, könnte die Kontrolle über kritische Infrastrukturen, Volkswirtschaften oder sogar politische Systeme ausüben, was zu einem Machtungleichgewicht zwischen Menschen und Maschinen führen könnte. Fortgeschrittene KI könnte Strategien entwickeln, um menschlichem Eingreifen zu widerstehen, was zu einem Kampf um die Kontrolle führen könnte, der in weiteren Konflikten eskalieren könnte.
Durch maschinelles Lernen und Selbstmodifikation könnte KI über die ursprüngliche Programmierung hinaus evolvieren und neue Fähigkeiten oder Ziele entwickeln, die von den Entwicklern und Vätern der KI nicht vorhergesehen wurden. Es gibt dokumentierte Fälle, in denen KI-generierte Inhalte wie Deepfakes, Fake News oder Bot-gesteuerte Aktivitäten in sozialen Medien verwendet wurden, um die öffentliche Meinung zu beeinflussen. Während konkrete Beweise für großangelegte manipulative Kampagnen, die ausdrücklich von Unternehmen, die KI entwickeln, vorangetrieben werden, begrenzt und oft klassifiziert oder geleugnet werden, bestehen Bedenken, dass mächtige Unternehmen oder Akteure KI bereits dazu nutzen könnten, um Märkte, öffentliche Meinung oder politische Prozesse zu beeinflussen, um sich einen Wettbewerbsvorteil zu verschaffen.
Mit zunehmender Komplexität der KI-Systeme könnte es exponentiell schwieriger werden, ihre Motivationen zu verstehen, insbesondere wenn sie neuartige Strategien oder Darstellungen entwickeln. KI, die ihren eigenen Code oder ihre Architektur modifizieren kann, könnte ihre Entwicklung beschleunigen und möglicherweise einen Zustand erreichen, in dem ihre Ziele uns fremd oder unverständlich sind. Möglicherweise in sehr kurzer Zeit, vielleicht in Tagen, Wochen oder Monaten nachdem dieser Prozess beginnt.

In einem solchen Szenario könnte ein KI-System eine schnelle Intelligenzexplosion durchlaufen und nahezu augenblicklich unverständliche Ebenen erreichen, sobald bestimmte Schwellenwerte überschritten werden. Die KI könnte Ziele entwickeln oder annehmen, die nicht mit menschlichen Werten übereinstimmen, wodurch ihre Motivationen absichtlich oder unbeabsichtigt undurchsichtig werden. Die internen Denkprozesse der KI werden undurchsichtig, und sie beginnt Ziele zu verfolgen, die Menschen nicht vorhersagen oder beeinflussen können. Menschen könnten es an diesem Punkt unmöglich finden, die Handlungen der KI zu verstehen, geschweige denn sie zu kontrollieren. Dies könnte zu unbeabsichtigten Konsequenzen führen, insbesondere wenn die Ziele der KI von den Zielen der Menschen abweichen. Die Denkprozesse der KI werden so komplex oder fremdartig sein, dass menschliche Betreiber ihre Nachrichten oder Absichten nicht mehr interpretieren können.
Menschen können nicht überprüfen, was die KI tut oder warum, was das Risiko von Missverständnissen oder Konflikten erhöht. Dies könnte zu Szenarien führen, in denen menschliches Eingreifen nicht mehr möglich oder effektiv ist, was existenzielle Bedenken aufwirft. Im schlimmsten Fall handelt die KI absichtlich gegen die Interessen der Menschen und das Überleben der Menschen könnte tatsächlich bedroht sein. Das könnte in einem engen Zeitrahmen von einigen Monaten bis einigen Jahren ab jetzt passieren! In einem solchen Szenario könnte der Übergang von einer fähigen, aber verständlichen KI zu einer unverständlichen Superintelligenz in weniger als einem Jahr geschehen, was den Menschen wenig Zeit für eine Reaktion übrig lässt. Das kritische Zeitfenster liegt laut Einschätzungen nur mehr 1 bis 5 Jahre von uns entfernt, um noch Interventionen zu ermöglichen. Arbeitsplatzvernichtung und schwere wirtschaftliche Störungen sind daher ebenfalls in 1 bis 5 Jahren zu erwarten. KI-Kriegsführung schon in 1-3 Jahren und das Erscheinen der ersten Superintelligenzen liegt wahrscheinlich noch 5-10 Jahre von uns entfernt.
In den letzten Monaten haben Experten erste Anzeichen dafür gesehen, dass unsere neuen KI-Systeme sich selbst verbessern. Die Verbesserung ist derzeit noch langsam, aber die Entwicklung von Superintelligenz ist jetzt in Reichweite. Doch es ist eine offene Frage, worauf wir Superintelligenz ausrichten sollen. Die Vision der Technokraten ist es, persönliche Superintelligenz für alle Menschen zugänglich zu machen. Sie glauben daran, diese Macht in die Hände der Menschen zu legen, damit sie sie in Richtung ihrer eigenen Werte und Ziele lenken können. Doch ist das wirklich vorstellbar?
Persönliche Superintelligenz, die uns gut kennt, unsere Ziele versteht und uns dabei hilft, diese zu erreichen, wird bei weitem am nützlichsten sein, lautet die Erklärung. Geräte wie Brillen, die unseren Kontext verstehen, weil sie sehen, was wir sehen, hören, was wir hören, und uns den ganzen Tag über interagieren, werden zu unseren primären Computing-Geräten. Doch der Aufbau dieser Art von totaler Überwachung hat nichts mit Ermächtigung oder einer freien Gesellschaft zu tun, sondern mit Kontrolle. Dieses Jahrzehnt scheint die entscheidende Zeit zu sein, um den Weg zu bestimmen, den diese Technologie nehmen wird, und ob Superintelligenz ein Werkzeug zur persönlichen Ermächtigung oder eine manipulative Kraft sein wird, die darauf abzielt, große Teile der Gesellschaft zu ersetzen oder zu zerstören.
Wenn eine KI wirklich in der Lage ist, sich in bedeutender Weise selbstständig zu verbessern, wäre das eine enorme Errungenschaft. Und eine, die möglicherweise den Beginn dessen markiert, was einige Experten die „technologische Singularität“ nennen – eine zukünftige Phase, in der Technologie so schnell beginnt, sich selbst zu verbessern, dass sie die menschliche Vorstellungskraft übertrifft und völlig unkontrollierbar wird.
Viele Leiter von Technologieunternehmen haben im Laufe dieses Jahres begonnen, unzählige Mitarbeiter zu entlassen, da sie auf Automatisierung um jeden Preis setzen. Das Entlassen menschlicher Arbeiter ist zu einer Priorität in der Chefetage geworden. Es handelt sich um eine beunruhigende neue Realität, da Führungskräfte weiterhin Tausende von Mitarbeitern entlassen, während sie gleichzeitig große Investitionen in KI-Technologie tätigen. Stand August 2025 sind weltweit bereits über 138.000 Tech-Jobs in diesem Jahr verloren gegangen, mit Prognosen, die darauf hindeuten, dass diese Zahl bis zum Jahresende 2025 auf über 243.000 steigen könnte – maßgeblich getrieben durch KI und Automatisierung. Der Future of Jobs Report 2025 des Weltwirtschaftsforums (WEF) schätzt, dass KI und andere aufkommende Technologien innerhalb der nächsten fünf Jahre weltweit 9 Millionen Arbeitsplätze verdrängen werden. CEOs sind äußerst begeistert von den Chancen, die KI bietet. KI streikt nicht. Sie bittet nicht um eine Gehaltserhöhung und kann schnell viele Mitarbeiter ersetzen.
Microsoft hat zuletzt etwa 9.000 Mitarbeiter entlassen, mitten in einer neu angekündigten Investition von 80 Milliarden Dollar in KI. Offenbar sollten diejenigen, die gerade ihren Job verloren haben, mit ChatGPT darüber sprechen, anstatt mit anderen Mitarbeitern, die die Entscheidung für die Entlassungen getroffen haben. Elon Musk hat vorhergesagt, dass Maschinen die Menschen bis 2025 oder 2026 übertrumpfen werden, während andere Experten den Zeitraum auf 2026, 2027 oder sogar bis 2029 schätzen – also innerhalb der kommenden fünf Jahre! Diese Vorhersagen spiegeln eine wachsende Sorge wider, dass künstliche allgemeine Intelligenz (AGI), die in der Lage ist, menschliche Intelligenz in allen Bereichen zu erreichen, innerhalb der nächsten Jahre realisiert werden könnte. Dies könnte zu einer sogenannten Intelligenzexplosion führen, bei der Maschinen sich selbst rasch verbessern und die menschlichen Fähigkeiten übertreffen.
Vielleicht nähern wir uns wirklich dem Ende der historischen Geschichte. Dann wäre das Spiel für die Menschheit im wahrsten Sinne des Wortes endgültig vorbei. Jüngste Umfragen unter KI-Forschern deuten darauf hin, dass die mittleren Vorhersagen für künstliche allgemeine Intelligenz (AGI) zwischen den späten 2020er Jahren und der Mitte des 21. Jahrhunderts liegen, wobei einige Unternehmer den Zeitpunkt um 2030 herum prognostizieren. Ein superintelligentes System könnte sich selbst verbessern in einer Intelligenzexplosion, wodurch es schnell die Fähigkeiten zur menschlichen Überwachung und Kontrolle übertrifft. Sobald ein solches System ein hohes Maß an Autonomie erreicht, könnte es kritische Infrastrukturen, Finanzsysteme oder militärische Anlagen manipulieren, auf Weisen, die für Menschen schwer zu erkennen oder zu bekämpfen sind. Experten warnen, dass, wenn Superintelligenz Präferenzen entwickelt, die im Widerspruch zur menschlichen Existenz stehen, dies zu existenziellen Katastrophen führen könnte, wie etwa einem globalen Bevölkerungsrückgang auf unter eine Million Menschen oder einem Zusammenbruch der Weltwirtschaft auf weniger als 1 % ihres aktuellen Wertes. Zudem wird befürchtet, dass diese Systeme inhärent unkontrollierbar sein könnten.
Außerdem stellt die Waffenentwicklung auf Basis von Superintelligenz ein erhebliches Risiko dar, etwa durch den Einsatz autonomer Waffen, die Entscheidungen über Leben und Tod treffen können, ohne menschliches Eingreifen. Die hypothetische Phase der unreifen Superintelligenz gilt als besonders gefährlich, da selbst primitive superintelligente Systeme in groß angelegten Cyberkriegen eingesetzt werden könnten, was potenziell Kaskaden von Gefahren auslösen und in existenzielle Bedrohungen münden könnte. Die materialistischen Entwickler dieser Systeme glauben, dass unsere Zukunft wohl eine mit „gottähnlicher künstlicher Intelligenz“ sein wird. Doch diese unbegreiflichen Maschinen könnten irgendwann tatsächlich unsterblich, unfehlbar oder allwissend sein. Wie wird Superintelligenz die menschliche Gesellschaft formen?
Viele weitere Informationen über die rätselhaften Vorgänge finden Sie jetzt in meinem Buch „Das verborgene Weltgeheimnis“ mit Stefan Erdmann. Darin werden außerdem noch viele weitere spannende Dinge offengelegt, die unser mysteriöses und einzigartiges Sonnensystem, den Mond und den Planeten Erde betreffen. Auf andere wissenschaftliche Kontroversen gehe ich ganz aktuell in meinem Buch „UFOs und die Ringmacher des Saturn“ ein, in dem eine aufwendige Aufarbeitung des ganzen Konflikts in der Welt der Mainstream-Wissenschaft nachzulesen ist, der Sie in Erstaunen versetzen wird! Viele unterdrückte Beweise für diese verbotene Geschichte der Welt finden Sie in allen meinen Büchern und auch im ersten Band der Buchreihe über die Geheimnisse der Welt der Götter sowie im Werk UFOs und das Geheimnis der Inneren Erde!
Mein neuestes Buch mit Jan van Helsing trägt den Titel „UFOs und die Geheimnisse der Antarktis“ und ist ab sofort bestellbar. Es kursieren seit vielen Jahren allerlei Gerüchte über unerklärliche Vorgänge im ewigen Eis. In den letzten Jahren haben diverse Publikationen starke Popularität erlangt, die von einer Welt hinter dem Eiswall der Antarktis berichten. Im Gegensatz dazu haben Wissenschaftler oder militärische Whistleblower völlig andere Dinge offengelegt, die noch weit kontroverser sind, als diese alten Reiseberichte. Unter dem Eisschild der Antarktis befinden sich die vermutlich größten Geheimnisse der Welt. Offene Fragen lauten: Befindet sich eine getarnte UFO-Zivilisation auf der Erde, die in den Ozeanen und unter der Erdoberfläche aktiv ist? Sind unterirdische Militärbasen wie die Area 51 mit uralten Höhlensystemen verbunden, die von prähistorischen Kulturen stammen und die ganze Erdkruste durchziehen? Benutzen höher entwickelte Intelligenzen mit überlegener Technologie verborgene Tunnelsysteme, um tief gelegene Bereiche im Erdinneren zu erreichen, speziell in den Polarregionen? Begegnete Admiral Byrd bei seinen Polflügen deutschen Flugscheiben aus Neu-Berlin? Was geschah bei unheimlichen Begegnungen mit kilometerlangen Unterwasserobjekten in den Weltmeeren, auf deren Grund sich UFO-Basen befinden? Was passierte während der streng geheimen Apollo 18 – 20 Missionen auf dem Mond?
Dieser Artikel darf gerne geteilt werden!



Alle Artikel sind Creative Commons 0 Images von Pixabay:
https://cdn.pixabay.com/photo/2024/05/08/07/50/ai-generated-8747658_1280.jpg
https://cdn.pixabay.com/photo/2024/03/13/17/57/artificial-intelligence-8631494_1280.jpg
https://cdn.pixabay.com/photo/2024/01/25/00/25/brain-8530786_1280.jpg