Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Hardware & Software „IBM-Chef warnt vor Milliardenfalle: Warum heutige KI-Rechenzentren keine Zukunft haben“

Der IBM-Vorstandsvorsitzende Arvind Krishna zeichnet ein ernüchterndes Bild der aktuellen Investitionswelle in KI-Rechenzentren.
You must be registered for see images attach

In einem Gespräch im Decoder-Podcast von The Verge erläutert er, warum derartige Großprojekte aus seiner Sicht kaum wirtschaftlich tragfähig sind und weshalb sie uns auch nicht an den Rand einer allgemeinen künstlichen Intelligenz bringen werden.

Krishna beziffert die Kosten für ein Rechenzentrum mit einer Leistung von einem Gigawatt derzeit auf etwa 80 Milliarden US-Dollar.
Wer also im großen Stil ausbauen wolle und 20 bis 30 Gigawatt anvisiert, müsse mit Investitionen im Bereich von 1,5 Billionen US-Dollar rechnen.
Das eigentlich Problem sieht er jedoch nicht allein im hohen Preis, sondern in der schnellen Alterung der Hardware:
Innerhalb von fünf Jahren müsse die gesamte technische Ausstattung ausgetauscht werden, da sie dann nicht mehr konkurrenzfähig sei.
Damit bleibe nur ein kleines Zeit Fenster, um die gigantischen Summen überhaupt zu amortisieren.

Noch dramatischer wird die Rechnung nach Krishnas Ansicht, wenn man auf das ambitionierte Ziel einer Artificial General Intelligence (AGI) blickt.
Eine Rechenleistung von rund 100 Gigawatt wäre seiner Schätzung nach nötig, verbunden mit Investitionen von rund acht Billionen US-Dollar.
Nur um die Finanzierungskosten zu decken, wären jährlich hunderte Milliarden Dollar Gewinn erforderlich.
Für Krishna ist das ökonomisch kaum vorstellbar.

Zudem betont er, dass die gegenwärtigen KI-Ansätze, insbesondere große Sprachmodelle, seiner Einschätzung nach nicht ausreichen, um eine AGI zu erreichen.
Ohne einen völlig neuen technischen Durchbruch liege die Wahrscheinlichkeit dafür bei nahezu null.

Trotz dieser Kritik sieht Krishna die aktuelle KI-Generation positiv.
Die bestehenden Tools könnten, so seine Überzeugung, enorme Produktivitätsgewinne für Unternehmen freisetzen und die Wirtschaft nachhaltig verändern.
Doch eine echte allgemeine Intelligenz sei mit den heutigen Methoden nicht in Sicht und auf eine Rendite bei den aktuell getätigten Investitionen in Superrechenzentren würde er selbst nicht wetten.
 
Ich kritisiere mehr den Energieverbrauch, den solche Rechenzentren benötigen und dies in Relation zu den derzeit erzielbaren Ergebnissen. Rechtfertigt der immense Aufwand an Material und Energie das Erzielbare?
Was so eine einzelne nVidia Grafikkarte in einem PC für einen Strombedarf hat, und wie viel Wärme sie dabei produziert, kennen wir. Die Kühlungsmaßnahmen verbrauchen min. nochmals soviel, denn Prozessoren haben keine Wirkleistung. Die ganze Energie, die dem Prozessor zugeführt wird, wird in Wärme umgewandelt.
Wir reden hier von Megawatt. Wie viele Haushalte könnte man damit versorgen? Wie viele E-Fahrzeuge könnten damit betrieben werden? Was machen wir? Wir speisen damit Prozessoren, die Programme darauf laufen lassen, deren Ergebnisse genauso zweifelhaft sind wie deren Quellen, mit denen sie gefüttert werden.
Eine Blase wird die KI nicht werden. Sie ist aber immer auf Informationsquellen angewiesen. Sollten Unternehmen sich mal dazu entschließen, keine Informationen mehr auf ihren Webseiten anzubieten, ist das Futter der KI weg.
 
Die ganze Energie, die dem Prozessor zugeführt wird, wird in Wärme umgewandelt.
Der Prozessor wandelt die zugeführte elektrische Energie fast vollständig in Wärme um, weil die elektrischen Schaltvorgänge und die unvermeidlichen Verluste (Widerstand, Leckströme usw.) diese Energie in thermische Energie überführen. Nur ein winziger, praktisch vernachlässigbarer Teil könnte kurzfristig in elektrischen Feldern oder ähnlichem „gespeichert“ sein, aber dieser wird ebenfalls rasch in Wärme dissipiert.
Dieses "fast vollständig" macht sich bei einer großen Masse doch etwas bemerkbar. Aber Du hast im wesentlichen Recht. Der TDP muss abgeführt werden, "Koste es was es soll". Wärmerückgewinnung ist da ja ein weitläufiges Thema, zB. hat der erste Röhrenrechner ein Schwimmbad geheizt. Sollte man dann auch mal ins Auge fassen. ;-)
 
Zurück
Oben