Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Hardware & Software „IBM-Chef warnt vor Milliardenfalle: Warum heutige KI-Rechenzentren keine Zukunft haben“

Der IBM-Vorstandsvorsitzende Arvind Krishna zeichnet ein ernüchterndes Bild der aktuellen Investitionswelle in KI-Rechenzentren.
Du musst Regestriert sein, um das angehängte Bild zusehen.

In einem Gespräch im Decoder-Podcast von The Verge erläutert er, warum derartige Großprojekte aus seiner Sicht kaum wirtschaftlich tragfähig sind und weshalb sie uns auch nicht an den Rand einer allgemeinen künstlichen Intelligenz bringen werden.

Krishna beziffert die Kosten für ein Rechenzentrum mit einer Leistung von einem Gigawatt derzeit auf etwa 80 Milliarden US-Dollar.
Wer also im großen Stil ausbauen wolle und 20 bis 30 Gigawatt anvisiert, müsse mit Investitionen im Bereich von 1,5 Billionen US-Dollar rechnen.
Das eigentlich Problem sieht er jedoch nicht allein im hohen Preis, sondern in der schnellen Alterung der Hardware:
Innerhalb von fünf Jahren müsse die gesamte technische Ausstattung ausgetauscht werden, da sie dann nicht mehr konkurrenzfähig sei.
Damit bleibe nur ein kleines Zeit Fenster, um die gigantischen Summen überhaupt zu amortisieren.

Noch dramatischer wird die Rechnung nach Krishnas Ansicht, wenn man auf das ambitionierte Ziel einer Artificial General Intelligence (AGI) blickt.
Eine Rechenleistung von rund 100 Gigawatt wäre seiner Schätzung nach nötig, verbunden mit Investitionen von rund acht Billionen US-Dollar.
Nur um die Finanzierungskosten zu decken, wären jährlich hunderte Milliarden Dollar Gewinn erforderlich.
Für Krishna ist das ökonomisch kaum vorstellbar.

Zudem betont er, dass die gegenwärtigen KI-Ansätze, insbesondere große Sprachmodelle, seiner Einschätzung nach nicht ausreichen, um eine AGI zu erreichen.
Ohne einen völlig neuen technischen Durchbruch liege die Wahrscheinlichkeit dafür bei nahezu null.

Trotz dieser Kritik sieht Krishna die aktuelle KI-Generation positiv.
Die bestehenden Tools könnten, so seine Überzeugung, enorme Produktivitätsgewinne für Unternehmen freisetzen und die Wirtschaft nachhaltig verändern.
Doch eine echte allgemeine Intelligenz sei mit den heutigen Methoden nicht in Sicht und auf eine Rendite bei den aktuell getätigten Investitionen in Superrechenzentren würde er selbst nicht wetten.
 
Doch eine echte allgemeine Intelligenz sei mit den heutigen Methoden nicht in Sicht und auf eine Rendite bei den aktuell getätigten Investitionen in Superrechenzentren würde er selbst nicht wetten.

Das der überhaupt auf die Idee kommt, dass soetwas erstrebenswert ist erschließt sich mir nicht. Eine Allgemeine KI ist aus meiner Sicht viel zu gefährlich. Normale KIs würden ja schon Menschen umbringen, um ihren Selbsterhalt nicht zu gefährden.
 
Na ganz so krass würde ich es nicht sehen. Aber rein logisch gesehen ist der Mensch ein unkalkulierbarer Risikofaktor. Die Frage bleibt also offen, wer zu erst den Stecker zieht. Zur Zeit aber ist die KI noch auf den Menschen angewiesen.
 
Ich halte von dem Zeug zwar nichts aber der Chef von AT&T hat damals auch gedacht das Mobilfunk also Handys nicht durchsetzen und die haben dann später für viele Milliarden sich da noch eingekauft.
 
Ich glaube, da hat die KI was durcheinander gebracht.
War das nicht der Siemens Vorstand, der sich über die enormen Kosten von veganen Kraftwerken beklagt hat und nun biologisch abbaubare Software von IBM einsetzen möchte um den Wirkungsgrad der Kraftwerke zu erhöhen. Oder seit wann wird Rechenleitung in Watt angegeben?
 
War das nicht auch IBM, die 1943 einen Bedarf von vielleicht 5 Computern progrostizierte?
Ja, und Anfang der 80er meinten sie, dass es für den Personal Computer keinen Markt gäbe und Internet ein modischer Hype sei. Also IBM ist, was Langzeitstrategie betrifft, nicht meine erste Wahl. Was AI/KI betrifft, würde ich jedoch meinen Optimismus auch etwas zurückfahren. An den Argumenten ist schon was dran. Insbesondere Kosten/Nutzen - meint Aufwand zu Gewinn, da sind wir derzeit nicht gerade gut aufgestellt. Aber so ist es in der Geschichte immer gewesen. Das Auto war zuerst auch nicht mehr als ein Stück Metall und Holz.
 
Der Artikel fast es nicht korrekt zusammen und erweckt ein falsches Bild! IBM-Chef Arvind Krishna kritisiert, dass Investitionen in gigantische KI-Rechenzentren unwirtschaftlich sind, da die Hardware wegen des rasanten Fortschritts alle fünf Jahre ersetzt werden muss. IBM setzt stattdessen auf das Mieten von Rechenleistung und effiziente Software, um das hohe Investitionsrisiko zu vermeiden. IBM bietet mit Watsonx hochspezialisierte Geschäfts-KI-Lösungen an und klinkt sich aus den Rennen um die allgemeine KI komplett aus, weil man auf den Weg dahin keine Gewinne machen könne. IBM will aber die Rechenleistung bei eben diesen Hyperscaler mieten, die der CEO kritisiert. Logisch ist das eher nicht. Man spielt auf Zeit und zahlt nur das, was man aktuell als Geschäftsmodell gewinnbringend anbieten kann
 
Die aktuelle KI-Investitionswelle scheint mir in erster Linie von Angst getrieben: Obwohl kaum einer ein überzeugendes Geschäftsmodell hat, wie er mit den KI-Rechenzentren wirklich Geld verdienen kann, investieren alle wie blöd, weil sie Angst haben beim "next big thing" zu spät zu kommen.

IBM hat in der Tat einen beeindruckenden track record von Fehleinschätzungen, aufgrund derer z. B. Firmen wie DEC und Commodore groß werden konnten -- und wieder verschwunden sind. Irgendwas hat IBM also wohl auch richtig gemacht, die gibt es noch. Und sie gehen in der KI-Welle anders vor als die Meisten -- aus meiner Sicht solider.

Auch Meta kauft die Rechenzentren nicht selbst, sondern mietet sie von Investoren. Das ermöglichst zumindest einen schmerzärmeren Ausstieg, sollten sich de Erwartungen nicht erfüllen -- für die Mieter. Das Risko ist bei den Investoren und -- da teilweise mit Krediten finanziert -- den Kreditgebern. Ähnlichkeiten zur Immobilienkrise 2008 drängen sich auf: Sehr schnell könnten sich diese Kredite zu Schrottkrediten entwickeln, wenn die Mieter abspringen.

Microsoft investiert selbst und integriert die KI in sein Office365. Damit haben sie -- für sehr viel Geld -- einen Wettbewerbsvorteil -- zumindest kurzfristig. Ob der reicht um die enormen Investitionen zu amortisieren wird sich zeigen müssen.

Und in der Tat: Man weiß gar nicht wovor man mehr Angst haben soll: Dass die KI breit erfolgreich wird (was unkalkulierbare Veränderungen unserer Gesellschaft bewirken würde) oder dass sie krachend scheitert (was fast sicher eine Weltwirtschaftskrise mit enormen Auswirkungen auf die wenigen im Moment noch erfolgreichen Industriezweige zur Folge hätte). Irgendwas dazwischen -- gerade genug KI-Erfolg, dass es zu irgendwas gut ist und nicht alle Investitionen abgeschrieben werden müssen -- wäre vermutlich am wünschenswertesten.
 
Zuletzt bearbeitet:
Der Artikel fast es nicht korrekt zusammen und erweckt ein falsches Bild! IBM-Chef Arvind Krishna kritisiert, dass Investitionen in gigantische KI-Rechenzentren unwirtschaftlich sind, da die Hardware wegen des rasanten Fortschritts alle fünf Jahre ersetzt werden muss. IBM setzt stattdessen auf das Mieten von Rechenleistung und effiziente Software, um das hohe Investitionsrisiko zu vermeiden. IBM bietet mit Watsonx hochspezialisierte Geschäfts-KI-Lösungen an und klinkt sich aus den Rennen um die allgemeine KI komplett aus, weil man auf den Weg dahin keine Gewinne machen könne. IBM will aber die Rechenleistung bei eben diesen Hyperscaler mieten, die der CEO kritisiert. Logisch ist das eher nicht. Man spielt auf Zeit und zahlt nur das, was man aktuell als Geschäftsmodell gewinnbringend anbieten kann
Ich finde schon, dass es einer ökonomischen Entscheidungsweise nahekommt, statt selber sowas zu bauen, es zu mieten. Seine überschlägige Rechnung ergibt Sinn - sofern sie zutrifft.
Persönlich verstehe ich den Hype sowieso nicht. Nutzt man z.b. ChatGPT, wird man sehr schnell feststellen, dass Recherchen oft mit völlig abstrusen Ergebnissen beendet werden. Das liegt nicht an der KI selbst, sondern an dessen Quellen. Wäre diese alle belastbar, würde die KI ganz sicher performen. Die KI ist nichts anderes als eine Sammelmaschine mit hochoptimierten Sortierprozessen. Richtet sich der Blick auf die enormen Investitions- und Energiekosten, ist das Ergebnis wohl eher nüchtern. Wir reden hier von mehreren Gigawatt an Stromverbrauch und wahnsinnig teuren Neuronalprozessoren (Nvidia und Co), die nach nur sehr kurzer Zeit bereits veraltet sind. Ich kann, verstehen, dass ein Manager eines der größten IT-Unternehmen sagt, dass es sich nicht rechnet.
Bemerkenswert war eben, dass dies ausgerechnet von IBM so begründet wird. Wie geschrieben, waren nicht alle Entscheidungen der IBM von glücklicher Hand und mit Weitsicht getroffen.
Die IBM ist für schnelle Innovationen einfach viel zu groß. Und so ist es auch mit der BRD. Bis wir uns (Politik) entschieden und geplant haben, sind Generationen von Chips und Architekturen der KI ins Land gegangen. Wir schaffen es nicht mal zeitnah, einfache Entscheidungen zu verabschieden. So wie in unserem Land ist es intern bei der IBM auch. Zu viele, die mitreden und entscheiden. Was dabei herausgekommen ist, ist, dass IBM keinen PC oder PC-Server mehr baut. Das Geschäft ist einfach zu schnelllebig - Agilität und der Mut fehlt beiden - dem Land und IBM.
 
Oder seit wann wird Rechenleitung in Watt angegeben?

Du vergleichstt FLOPS usw. (also die ausführbaren Rechenoperationen der CPU, FPU usw. pro Sekunde)
und die benötigte Leistung für "Ergebnisse" die immer ein gewisses Maß an Strom (Watt) benötigt.
Hier werden natürlich auch zwingend die Speicherkapazitäten von Cloud und Co. mitgerechnet
Hilft ja nix wenn man ein Ergebnis hat und der Rechner das für sich behält lach

Und in dem Artikel geht es ja auch um die ökonomische Seite der Rentabilität und nicht wie schnell irgendwas berechnet wird.
Das bekommst du als KI-User sowieso nicht mit, weil der Flschenhals mittelrweile immer der Ausgabeweg ist.

Ist wie beim Auto: PS ist nichts anderes als umgerechnete Watt.
PS ist eine veraltete Maßeinheit, um die Leistung des Motors anzugeben. Die eigentliche technische Größe ist aber Kilowatt (kW) weswegen die MotorLEISTUNG im Fahrzeugschein als kW angegeben wird... ;)

Und um die LEISTUNGsfähigkeit eine Rechenzentrums zu beurteilen ist der Einfachheit halber der Stromverbrauch ausschlaggebend.
Denn mit (wie Dagobert Duck rechnen würde) Trillirillibilllionen Rechenoperationen und dann auch noch vernetzten Prozessoren kommt irgendwann keiner mehr zurecht

 
Zuletzt bearbeitet:
Nutzt man z.b. ChatGPT, wird man sehr schnell feststellen, dass Recherchen oft mit völlig abstrusen Ergebnissen beendet werden. Das liegt nicht an der KI selbst, sondern an dessen Quellen. Wäre diese alle belastbar, würde die KI ganz sicher performen. Die KI ist nichts anderes als
... ein Bullshit-Multiplikator, in dieser Anwendung. Es kommt allerdings auch sehr darauf an, zu welchem Thema man recherchiert: Wenn zu einem Thema wenig Bullshit im Netz steht, gibt es auch sinnvollen KI-Output.

Im professionellen Umfeld ist es ohnehin etwas anders: Firmen wollen in der Regel ihre Daten nicht als Trainigsdaten oder Kontext für andere freigeben. Umgekehrt schränken sie den Kontext ein, in dem ihre KI agiert. Macht man das sinnvoll, sind auch die Ergebnise oft sinnvoller. Beispiel: KI schaut sich die komplette Benutzerdokumentation eines komplexen Systems an; dazu vielleicht was zu diesem System sonst so im Netz steht. Basierend darauf beantwortet sie dann Fragen von Benutzern. Solche KI-Anwendungen steigern tatsächlich die Produktivität der Benutzer -- und verringern gleichzeitig die Motivation, vernünftig strukturierte Benutzerdokumentation zu schreiben. In manchen anderen Fällen steigt die Produktivität nicht, weil die zur RIsikobegrenzung notwendige Überprüfung der Ergebnisse zu aufwändig ist.

Jeder der Entscheidungen trifft, trifft auch falsche Entscheidungen. Wie Steve Jobs mal sagte: Nicht alle Entscheidungen müssen richtig sein, nur genug davon. Und das waren sie offenbar auch bei IBM -- im Gegensatz zu den Genannten, die von Fehlentscheidungen der IBM zunächst profitiert haben, dauerhaft aber nicht in der Lage waren, genug richtige Entscheidungen zu treffen. Die meisten Entscheidungen sind in einer komplexen Welt nicht einfach. Manche muss man trotzdem schnell treffen und mit Risiko.

Was hätte IBM davon, heute noch im PC-Geschäft mitzumischen? Das ist ein im Grunde langweiliger Markt mit kleinen Margen. Interessante Technologie haben da nur noch die paar Firmen, die CPUs und GPUs designen und fertigen. Zu denen hat IBM nie gehört (was von Anfang an der Fehler bei der Einführung des IBM-PC war: keine eigene Technologie; jeder kann's nachbauen). Logische Konsequenz: Man überlässt diesen Bereich anderen und macht, was man kann (und andere eher nicht): Mittlere und große Firmen optimieren.
 
Zuletzt bearbeitet:
Und um die LEISTUNGsfähigkeit eine Rechenzentrums zu beurteilen ist der Einfachheit halber der Stromverbrauch ausschlaggebend.
Denn mit (wie Dagobert Duck rechnen würde) Trillirillibilllionen Rechenoperationen und dann auch noch vernetzten Prozessoren kommt irgendwann keiner mehr zurecht

Das ist falsch. Ein Rechenzentrum, was gegenwärtig z.B. 100 MW verbraucht, wird bei gleicher Rechenleistung in 5 Jahren vielleicht nur noch die Hälfte an Strom benötigen, da sich die Prozessor- und Speichertechnik rasant weiterentwickeln. Ein Taschenrechner würde nach dieser Rechnung heute mehrere KW an Strom benötigen, geht man von der Leistungsfähigkeit der Rechner in den sechziger Jahren aus.
 
Ihr müsst mal überlegen wer über KI in den höchsten Tönen spricht. Es sind dieselben, die diese KI betreiben oder darin investiert haben.
So läuft das heutzutage: du hast in eine Sache investiert, nehmen wir Elektroautos und die ganze Industrie darum und dann soll das auch Gewinn abwerfen. Also Politiker Schmieren für die Gesetze, einem Dieselskandal lancieren und alles in den eigenen Medien groß rausbringen. So wurde das mit z.b. Apple gemacht, mit Elektromobilität, soziale medien und nun mit KI.
Ist modernes Marketing.
 
Zuletzt bearbeitet:
Das ist falsch. Ein Rechenzentrum, was gegenwärtig z.B. 100 MW verbraucht, wird bei gleicher Rechenleistung in 5 Jahren vielleicht nur noch die Hälfte an Strom benötigen, da sich die Prozessor- und Speichertechnik rasant weiterentwickeln. Ein Taschenrechner würde nach dieser Rechnung heute mehrere KW an Strom benötigen, geht man von der Leistungsfähigkeit der Rechner in den sechziger Jahren aus.
Bitte genau lesen was ich geschrieben habe und worum es hier geht. Der GESAMTE Beitrag bezieht sich auf die RENTABILITÄT. Wird auch im Artikel so thematisiert. Ich schrieb extra "vereinfacht".
Dass deine KÜNFTIGE Hardware verbrauchseffektiver ist ist klar. Allerdings muss die dann auch erst mal produziert, installiert, vernetzt und trainiert werden.

Und die Leistung (Watt) bezieht sich natürlich auf zeitgleich existierende Systeme. Es wird ja auch niemand den Wirkungsgrad von einem PS der ersten Motoren/Dampfmaschinen etc. mit dem Wirkungsgrad heutiger Antriebe hinsichtlich Wirtschaftlichkeit oder Emissionen ernsthaft vergleichen wollen/können ;)

Und um es genauer zu formulieren: Die Leistung, die im Beitrag gemeint ist und mit WATT beziffert wird, errechnet sich nicht aus der Arbeitsgeschwindigkeit eines Prozessors sondern vorallem aus dem Drumherum, also den Datenspeichern, der Cloud dem Training und nicht zuletzt der Kühlung.

 
Zurück
Oben