1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Nvidias GV100-Chip: "Wir sind am…

Paar Überlegungen zu den tensor-cores

  1. Thema

Neues Thema Ansicht wechseln


  1. Paar Überlegungen zu den tensor-cores

    Autor: curious_sam 12.05.17 - 00:10

    https://image.slidesharecdn.com/japandli0117-final-170117084327/95/nvidia-deep-learning-institute-2017-47-638.jpg?cb=1484642754
    .
    Ich kann mich noch an diese Präsentation von Nvidia erinnern, wo sie behauptet hatten, dass sie, wenn es nur um die FP-einheiten ginge, ohne weiteres 10.000 64bit Einheiten in 100mm2 packen könnten.
    Was sie damit sagen wollten, ist natürlich dass viel entscheidender ist, die Einheiten zu füttern.
    Das ist im Prinzip ja auch, was ich mir unter den Tensor-Cores vorstelle. Eine Matrix Multiplikation hat es so an sich, dass eine kleine menge Zahlen in vielen verschiedenen Permutationen miteinander multipliziert werden.
    Hier hat sich nvidia wohl überlegt, dass sie sich das rumschieben der Daten und die Ansteuerungslogik weitestgehend sparen und so Fläche und Energie sparen können, wenn sie die matrix-Multiplikation hart codieren.
    Ein tensor-core hat (vermutlich) 64 16-bit FMA's, was 40k 16bit Einheiten für den gesamten Chip bedeuten würde. Bei näherungsweise quadratischer Skalierung (in der Präsi ging es um 64 bit Einheiten) würden die reine logic nach nvidias Slide ca. 25mm2 brauchen. Wieviel es wirklich ist, wäre sehr interessant.
    .
    Interessant finde ich auch die Datapath: bei dem 1:2 Verhältnis von SP:DP wird ja immer als Vorteil behauptet, dass sie immer auf die gleiche menge bits arbeiten. Somit sind die Zugriffe auf register file, L1 und L2 immer Vektoren der gleichen länge. Das würd auch mit dem 1:8 Verhältnis bei den tensor-cores aufgehen, (4x4x16bit = 256 = 8x32), wenn da nicht wäre, dass das Resultat und der additive Faktor 32 bit Elemente haben dürfen. Das heisst, für die tensor-cores müssen doppelt so viele daten bewegt werden. Allerdings wurde in der gestrigen Präsentation auch gesagt, dass Volta int und fp Einheiten gleichzeitig ansprechen kann.
    Ich schätze also, dass es zwei ports in das register file gibt, und der mixed-precision modus beide belegt. Das würde auch die Tür offen lassen für eine gv102 mit doppelt so vielen FP32 Einheiten (und ohne DP und Tensor) Damit wären wir wieder bei 128 cores/SM wie Maxwell/Pascal, und, falls die Anzahl der SM's gleich bleibt, absolut verrückten 10.240 cuda-cores.
    .
    Na ja, genug spekuliert für heute ;) Auf jeden Fall der aufregendste Produkt-launch des Jahres und ich kann es kaum erwarten, das teil in die Hände zu bekommen ;)

  2. Re: Paar Überlegungen zu den tensor-cores

    Autor: jo-1 12.05.17 - 06:42

    curious_sam schrieb:
    --------------------------------------------------------------------------------

    > .
    > Na ja, genug spekuliert für heute ;) Auf jeden Fall der aufregendste
    > Produkt-launch des Jahres und ich kann es kaum erwarten, das teil in die
    > Hände zu bekommen ;)


    um dann genau was damit zu machen?

    Sorry für meine ofensichtliche Ignoranz - (Eleganz der brut force Architektur mal eben aussen vor)

    Was kannst Du damit dann andres machen als heute mit ner flotten GPU?

    Ich hab zwei W9000 von AMD in meinem nMP late 2013 und reize diese so gut wie nie aus ausser bei UHD Video Schnitt und selbst da geht die elektrische Leistungsaufnahme meines nMP seltenst über 350 W (sprich die GPUs sind nicht mal voll ausgelastet) (voll wäre 450 W)

    FCP X ist zudem optimiert für mein System.

    Ich denke wir haben schon lange den sinnvollen Maximalausbau von Rechnern erreicht - klar - schneller geht immer und Gamer werden nie genug Rechenleistung haben und auch gerne dafür zahlen - ich bin jedoch sicher ein Beispiel für einen Power-User und ich kann heute schon meinen knapp vier Jahre alten MAC kaum adäquat an die Grenzen fahren.

    Nett ist so ein Monster auf jeden Fall - aber eben auch brut force - Elegant sieht IMHO anders aus.

    Denke eher das Teil wendet sich an wissenschaftliche Bereiche wo noch deutlich mehr an Rechenleistung benötigt wird und auch der Wille da ist eine Klimaanlage zu installieren :-)

    300 W sind deutlich mehr als mein gesamter Rechner im Durchschnitt aufnimmt - viel Spaß im Sommer - klingt eher nach nem LKW im Vergleich zu nem Sportwagen - ich trimme derzeit meine IT auf Stromsparsamkeit und Lärmreduktion - sobald ein flotter iMAC mit ähnlich viel WUMs wie mein MAC PRO raus kommt spare ich gerne ein paar W Leistungsaufnahme zugunsten der Umwelt und einem kühlen Arbeitszimmer ein - ich muss jetzt schon im Winter mit der Heizung zuheilen - das war zu Zeiten meines Wasser gekühlten Quad G5 noch anders ;-)

    (das war auch ein Monster - gut dass es heute smarter geht)

  3. Re: Paar Überlegungen zu den tensor-cores

    Autor: Legendenkiller 12.05.17 - 07:21

    das Teil ist nicht zum privaten gebrauch entwickelt, und nichtmal für Workstationes.
    Das dürfte bei 5stelligen preisen nur für den Chip aber klar sein.

    Die massive 16bit Rechenpower sind eigentlich nur bei Wetterberechnungen und Deeplerning / Neuralen Netzwerken richtig gut.
    Und keine Sorge solche Anwendungen lasten auch 10000 von diesen Chips voll aus.

    Schau mal auf die Rohe Rechenpower ... die CPUS heute haben teilweise das 100-1000fache an Roher Rechenpower wie CPUs... und wie gesagt es gibt mehr als genut Anwendungen die auch Heute noch sagen "jo nett . aber können sie das auch 1000x schneller bauen ?"

  4. Re: Paar Überlegungen zu den tensor-cores

    Autor: Ach 12.05.17 - 07:44

    >um dann genau was damit zu machen?

    >Sorry für meine ofensichtliche Ignoranz - (Eleganz der brut force Architektur mal eben aussen vor)

    Ja, das finde ich auch, das mit der Arroganz. Dem Kommentar des TE wirst du damit nicht gerecht. Der hat da viele interessante Informationen und Vergleiche dargestellt, auch wenn sich einiges davon nördlich meines Wissensspektrum befindet :].

    In Bezug auf dein Kritik aber, muss man doch nicht jedes mal von neuem darauf hinweisen, dass eine neue und sehr schnelle Kiste trotz höherem Spitzenverbrauchs unterm Strich effizienter arbeiten wird als drei galame alte Möhren, die für die selbe Aufgabe eine kleine ewig vor sich hin köcheln, das ist doch schon selbsterklärend!

    Außerdem geht es hier nicht um Alltagsanwendungen mit durchdefinierten und feststehenden Funktionsabläufen, was überhaupt die Voraussetzung dafür wäre, die Effizienz über alle anderen Aspekte zu stellen, es geht um Maschinen mit denen selber neue Dinge Entworfen und neue Wege erschlossen werden, die man noch gar nicht kennt. Da hat deine vorgeschlagene Hausfrauenstrategie dann kaum etwas verloren. Vielleicht in der nVidia-/Rechenzentrumskantine, sich drüber aufregen dass die Leute beim Verlassen das Licht nicht ausschalten und so. Wenn überhaupt einen Nutzen, dann findet der sich für solche plumpe Kritik vielleicht hier, oder wirkt sich in der Kantine wenigstens nicht kontraproduktiv auf Forschung und Entwicklung aus.

  5. Re: Paar Überlegungen zu den tensor-cores

    Autor: jo-1 12.05.17 - 07:48

    Legendenkiller schrieb:
    --------------------------------------------------------------------------------
    > das Teil ist nicht zum privaten gebrauch entwickelt, und nichtmal für
    > Workstationes.
    > Das dürfte bei 5stelligen preisen nur für den Chip aber klar sein.
    >
    > Die massive 16bit Rechenpower sind eigentlich nur bei Wetterberechnungen
    > und Deeplerning / Neuralen Netzwerken richtig gut.
    > Und keine Sorge solche Anwendungen lasten auch 10000 von diesen Chips voll
    > aus.
    >
    > Schau mal auf die Rohe Rechenpower ... die CPUS heute haben teilweise das
    > 100-1000fache an Roher Rechenpower wie CPUs... und wie gesagt es gibt mehr
    > als genut Anwendungen die auch Heute noch sagen "jo nett . aber können sie
    > das auch 1000x schneller bauen ?"

    Hab ich doch geschrieben - ist eher für den wissenschaftlichen Bereich gedacht - damit dürfte der TE wohl aus diesem Bereich stammen und kein Gamer sein.

  6. Re: Paar Überlegungen zu den tensor-cores

    Autor: curious_sam 12.05.17 - 10:43

    jo-1 schrieb:
    --------------------------------------------------------------------------------
    > Hab ich doch geschrieben - ist eher für den wissenschaftlichen Bereich
    > gedacht - damit dürfte der TE wohl aus diesem Bereich stammen und kein
    > Gamer sein.

    Genau so ist es ;)
    Und was brute-force angeht: ich halte das gerade nicht für brute-force, denn der Tensor-Core ist spezialisierte Hardware, die - zwar nur für spezielle Anwendungen, die aber recht häufig sind - ein vielfaches an Leistung liefert.
    Ich glaube auch, dass man mit bisschen Kreativität diese cores auch für mehr als nur deep learning nutzen kann, im Grunde ist es ja nur lineare Algebra, was die Grundlage vieler Algorithmen ist. Muss da aber auch noch etwas Erfahrungwerte sammeln.
    .
    Das erklärt natürlich auch, wie der Volta-Tegra 20 DL-Flops bei 512 Shadern bekommt, wobei da eig. noch immer ein Faktor 2 fehlt, also entweder hat der Tetra noch mehr davon oder was ähnliches mit int8...

  7. Re: Paar Überlegungen zu den tensor-cores

    Autor: TC 12.05.17 - 12:42

    Was hat du damit vor, wenn man fragen darf?
    So eine immense Investition muss sich ja irgendwie amortisieren...

  8. Re: Paar Überlegungen zu den tensor-cores

    Autor: JTR 12.05.17 - 12:54

    Dekadent Reiche würden dir widersprechen.

  9. das ist brut-force - Elegant sieht bei mir anders aus

    Autor: jo-1 12.05.17 - 17:44

    curious_sam schrieb:
    --------------------------------------------------------------------------------
    > jo-1 schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Hab ich doch geschrieben - ist eher für den wissenschaftlichen Bereich
    > > gedacht - damit dürfte der TE wohl aus diesem Bereich stammen und kein
    > > Gamer sein.
    >
    > Genau so ist es ;)
    > Und was brute-force angeht: ich halte das gerade nicht für brute-force,
    > denn der Tensor-Core ist spezialisierte Hardware, die - zwar nur für
    > spezielle Anwendungen, die aber recht häufig sind - ein vielfaches an
    > Leistung liefert.
    > Ich glaube auch, dass man mit bisschen Kreativität diese cores auch für
    > mehr als nur deep learning nutzen kann, im Grunde ist es ja nur lineare
    > Algebra, was die Grundlage vieler Algorithmen ist. Muss da aber auch noch
    > etwas Erfahrungwerte sammeln.
    > .
    > Das erklärt natürlich auch, wie der Volta-Tegra 20 DL-Flops bei 512 Shadern
    > bekommt, wobei da eig. noch immer ein Faktor 2 fehlt, also entweder hat der
    > Tetra noch mehr davon oder was ähnliches mit int8...

    Also Bandbreiten Erhöhung und massive Parallelisierung in Kombination mit numerischer Mathematik sind für mich schon "brut force" - was denn sonst?

    Neue - oder bessere Mathematik oder gar Quanten gestützte Rechenart wären für mich elegant - oder Modellierung mittels Molekülen - einfach ne schnellere und besser GPU mit mehr Leistungsaufnahme hat irgendwann ein Ende - wahrscheinlich schon sehr bald - schätze mal in der kommenden Dekade.

    http://www.weltderphysik.de/gebiet/technik/news/molekuel-computer-rechnet-mit-dna-straengen/

    Wenn keine neue Mathematik oder neue Denkansätze kommen werden wir in absehbarer Zeit nicht mehr so deutliche Zuwächse an Rechenleistung haben.

    Wir sehen das jetzt schon bei Intel - rein technisch geht das sicher noch ne Weile weiter aber wirtschaftlich rechnet es sich irgendwann nicht mehr.

    Zudem kommt die Umweltbelastung durch immer mehr Leistungsaufnahme für immer mehr Berechnungen - ich denke hier sollte ein Umdenken stattfinden.

    Quantencomputer oder Computer mit Quanteneffekten könnten ein Ausweg sein für bestimmte Modellierungen oder auch Molekular-Computer - das fände ich bspw. wirklich elegant!

  10. Re: Paar Überlegungen zu den tensor-cores

    Autor: Bobsen_ 12.05.17 - 17:52

    Es kommt halt ganz drauf an für wen was ist. Ich denke es wird wieder eine deutlichere Trennung zwischen mainstream- und spezialisierter Hardware geben. Für Forschung und grössere Unternehmen ist die Leistung sehr wohl sinnvoll, für den Privatanwender wohl nicht in absehbarer Zeite.

  11. Re: das ist brut-force - Elegant sieht bei mir anders aus

    Autor: curious_sam 13.05.17 - 00:06

    jo-1 schrieb:

    > Also Bandbreiten Erhöhung und massive Parallelisierung in Kombination mit
    > numerischer Mathematik sind für mich schon "brut force" - was denn sonst?
    >
    > Neue - oder bessere Mathematik oder gar Quanten gestützte Rechenart wären
    > für mich elegant - oder Modellierung mittels Molekülen - einfach ne
    > schnellere und besser GPU mit mehr Leistungsaufnahme hat irgendwann ein
    > Ende - wahrscheinlich schon sehr bald - schätze mal in der kommenden
    > Dekade.
    >
    > www.weltderphysik.de
    >
    > Wenn keine neue Mathematik oder neue Denkansätze kommen werden wir in
    > absehbarer Zeit nicht mehr so deutliche Zuwächse an Rechenleistung haben.
    >
    > Wir sehen das jetzt schon bei Intel - rein technisch geht das sicher noch
    > ne Weile weiter aber wirtschaftlich rechnet es sich irgendwann nicht mehr.
    >
    > Zudem kommt die Umweltbelastung durch immer mehr Leistungsaufnahme für
    > immer mehr Berechnungen - ich denke hier sollte ein Umdenken stattfinden.
    >
    > Quantencomputer oder Computer mit Quanteneffekten könnten ein Ausweg sein
    > für bestimmte Modellierungen oder auch Molekular-Computer - das fände ich
    > bspw. wirklich elegant!

    also das R&D Budget war 3 Milliarten, nicht 3 Billiarden ;)

  12. Memristor

    Autor: Ach 13.05.17 - 06:02

    ● Raumtemperatur statt nahe dem absolutem Nullpunkt,

    ● Extreme Informationsverdichtung gegenüber der klassischen Siliziumtechnik statt einer Beschränkung auf ein paar an zwei Händen abzählbarer Bits

    ● Statt in Universitäten und Forschungslaboren, wird an Memristorsystemen schon seit mehr als einem Jahrzehnt in Computerunternehmen geforscht(z.B. "The Machine" von HPE).

    ● Derivate der Memristorschaltung werden schon seit vielen Jahren eingesetzt(Stichwort: programmierbare Hardware)

    ● Was dem Quantencomputer an Vielseitigkeit abgeht, haben Memristoraufbauten zuviel, und das ist auch das, was den Verkehr aufhält:



    Auf der Memristormatrix werden CPU und Ram miteinander vereint. Alles wird (über die Zeit stabil) programmierbar, die Schaltungen zur Abarbeitung der eingehenden Befehle, wie selbstverständlich auch die Speicherzustände. Programme liegen nicht mehr auf der Festplatte, sie werden zur Installation gleich auf den Chip "gezeichnet".
    Ergo die Frage: wie programmiert man so etwas? wie sieht ein System aus, dass so eine Schaltung verwalten und verändern kann, wenn dieses System im selben Moment selber Teil dieser Schaltung ist und umgekehrt? Die Birne raucht, also viel eher ein Kopf- statt eines Hardwareproblems, an dem sich die IT derzeit noch die (intellektuellen)Zähne ausbeißt. Hardwareseitig eröffnen Memristoren die Tore für weitere Dimensionen der Verkleinerung, und sie funktionieren eigentlich jetzt schon, nur: wie bekommt man die Befehle und den Schaltstrom durch so eine komplexe Matrix unzähliger Memristoren an die Stelle, an der man ihn zum Schalten eines bestimmten Memristors benötigt? Fragen über Frage....

    Aber: wenn man von Zukunft spricht, dann steht da erst mal groß und breit der Memristor im Raum, kein Quantencomputer. Warum eigentlich Quantencomputer? Ich schätze, es liegt an dem Wort: geschichtsträchtig und Sci-Fi-mäßig in einem, mystisch, Sexi, charismatische Personen, die sich mit dem Thema beschäftigten und damit die Aufmerksamkeit der Öffentlichkeit auf das Thema fokusiierten? Keine Ahnung, aber soviel sagen, dass sich die Personal-Computertechnik mit dem Quantencomputer derzeit in einer festen Sackgasse befindet, das kann man. Die Zukunft gehört den Memristoren.

  13. Memristor, Quanten (Effekt) Computer, Molekular oder gar Photonen-Computer

    Autor: jo-1 13.05.17 - 08:10

    Ach schrieb:
    --------------------------------------------------------------------------------
    > ● Raumtemperatur statt nahe dem absolutem Nullpunkt,
    >
    > ● Extreme Informationsverdichtung gegenüber der klassischen
    > Siliziumtechnik statt einer Beschränkung auf ein paar an zwei Händen
    > abzählbarer Bits
    >
    > ● Statt in Universitäten und Forschungslaboren, wird an
    > Memristorsystemen schon seit mehr als einem Jahrzehnt in
    > Computerunternehmen geforscht(z.B. "The Machine" von HPE).
    >
    > ● Derivate der Memristorschaltung werden schon seit vielen Jahren
    > eingesetzt(Stichwort: programmierbare Hardware)
    >
    > ● Was dem Quantencomputer an Vielseitigkeit abgeht, haben
    > Memristoraufbauten zuviel, und das ist auch das, was den Verkehr aufhält:
    >
    > Auf der Memristormatrix werden CPU und Ram miteinander vereint. Alles wird
    > (über die Zeit stabil) programmierbar, die Schaltungen zur Abarbeitung der
    > eingehenden Befehle, wie selbstverständlich auch die Speicherzustände.
    > Programme liegen nicht mehr auf der Festplatte, sie werden zur Installation
    > gleich auf den Chip "gezeichnet".
    > Ergo die Frage: wie programmiert man so etwas? wie sieht ein System aus,
    > dass so eine Schaltung verwalten und verändern kann, wenn dieses System im
    > selben Moment selber Teil dieser Schaltung ist und umgekehrt? Die Birne
    > raucht, also viel eher ein Kopf- statt eines Hardwareproblems, an dem sich
    > die IT derzeit noch die (intellektuellen)Zähne ausbeißt. Hardwareseitig
    > eröffnen Memristoren die Tore für weitere Dimensionen der Verkleinerung,
    > und sie funktionieren eigentlich jetzt schon, nur: wie bekommt man die
    > Befehle und den Schaltstrom durch so eine komplexe Matrix unzähliger
    > Memristoren an die Stelle, an der man ihn zum Schalten eines bestimmten
    > Memristors benötigt? Fragen über Frage....
    >
    > Aber: wenn man von Zukunft spricht, dann steht da erst mal groß und breit
    > der Memristor im Raum, kein Quantencomputer. Warum eigentlich
    > Quantencomputer? Ich schätze, es liegt an dem Wort: geschichtsträchtig und
    > Sci-Fi-mäßig in einem, mystisch, Sexi, charismatische Personen, die sich
    > mit dem Thema beschäftigten und damit die Aufmerksamkeit der Öffentlichkeit
    > auf das Thema fokusiierten? Keine Ahnung, aber soviel sagen, dass sich die
    > Personal-Computertechnik mit dem Quantencomputer derzeit in einer festen
    > Sackgasse befindet, das kann man. Die Zukunft gehört den Memristoren.

    Mir im Grunde einerlei was do kommen wird - die wesentliche Frage ist wie das ganze "Zeugs" kleiner und gleichzeitig effizienter wird.

    Die klassische IT haben wir im Grunde seit Conrad Zuse - hat sich nix wesentliches geändert. Weil: "Ist ja gut genug"

    Wenn wir einen Schritt weiter kommen wollen braucht es andre neue Ansätze.

    Ich hab keine Ahnung wie intensiv an diesen Dingen geforscht wird - wäre ich IBM oder Intel würde ich mir das sehr genau ansehen was alternativ möglich wäre.

    http://www.faz.net/aktuell/wissen/physik-mehr/der-computer-von-morgen-koennte-mit-photonen-arbeiten-14357577.html

    Liest sich alles wie Science Fiction aber das würden unsere nicht allzu entfernten Vorfahren von 1950 auch über die heutige IT sagen - wir sind ziemlich am Ende mit der aktuellen Technologie was Datenverarbeitung anlangt. Weitere Fortschritte kommen erst wenn wir andre Denkansätze konsequent umsetzen. Sonst wird es nur kleiner und aufwändiger und teurer - eben "brut force" - das hat genauso ein Ende wie das Wirtschaftswachstum - wir brauchen neue radikale Ideen und nicht ein Credo der "weiter so Fraktion"

    Das wollte ich ursprünglich zum Ausdruck bringen - keine Frage - das neue GPU Wundertier ist sicher eine Ansage - aber eben sicher nicht elegant aus IT Sicht sondern einfach schneller und noch näher am Limit.

    Wahrscheinlich geht das noch eine Dekade weiter - spätestens wenn wit bei 2-3 nm Strukturbreite sind kommen wir schon auf wenige Atome, die schalten sollen - dann kommen thermische Aspekte noch mehr hinzu - vorausgesetzt sowas lässt sich in Großserie überhaupt ökonomisch sinnvoll herstellen.

  14. Re: Paar Überlegungen zu den tensor-cores

    Autor: B.I.G 15.05.17 - 19:09

    jo-1 schrieb:
    --------------------------------------------------------------------------------

    > Ich hab zwei W9000 von AMD in meinem nMP late 2013 und reize diese so gut
    > wie nie aus ausser bei UHD Video Schnitt und selbst da geht die elektrische
    > Leistungsaufnahme meines nMP seltenst über 350 W (sprich die GPUs sind
    > nicht mal voll ausgelastet) (voll wäre 450 W)

    nMP? New Mac Pro? Wie um alles in der Welt hast du AMD dazu bekommen die W9000 für den zu Adaptieren? Und wo hast du ein Netzteil dafür finden können?

    > Rechenleistung haben und auch gerne dafür zahlen - ich bin jedoch sicher
    > ein Beispiel für einen Power-User und ich kann heute schon meinen knapp
    > vier Jahre alten MAC kaum adäquat an die Grenzen fahren.

    Sorry nein das bist du nicht, Videoschnitt mit FCP X ist mittlerweile eine ziemlich langweilige Aufgabe für den Computer. Woher kommt überhaupt dein Glaube dass wäre Leistungsfordernd?
    Als Fotograf braucht man wesentlich mehr Rechenleistung als für Videoschnitt und frag mal die Leute welche mit Rohdaten Arbeiten oder gleich komplett Rendern was die brauchen.

    > Nett ist so ein Monster auf jeden Fall - aber eben auch brut force -
    > Elegant sieht IMHO anders aus.

    Wichtig ist dass das was raus kommt gut aussieht, wie das womit es gemacht wurde aussieht ist vollkommen egal, es muss Funktionieren. Was passiert wenn man es anders macht sieht man ja am 2013er MacPro.
    Mein 2010er MacPro hat nicht nur mehr Leistung sondern kann diese auch auf Last halten.

    > Denke eher das Teil wendet sich an wissenschaftliche Bereiche wo noch
    > deutlich mehr an Rechenleistung benötigt wird und auch der Wille da ist
    > eine Klimaanlage zu installieren :-)

    Die Klimaanlage braucht man sowieso was glaubst du wohl entsteht in einem Studio für ne Abwärme alleine durch die Beleuchtung? Dann sind da noch ein paar Arbeitsplätze mit echten Workstations.
    Ich hätte die Karte auf jeden Fall gerne zum Bearbeiten der Fotos, die aktuell schnellsten Systeme verursachen noch immer zu lange Pausen für mich.

    > (das war auch ein Monster - gut dass es heute smarter geht)

    Es ist heute genau so wie damals, die Branche hat sich mit der Hardware weiter entwickelt, du bist in deinem Tun auf deinem Niveau von damals stehen geblieben das heißt nicht dass das schlecht sei oder du deine Sache nicht gut machst. Allerdings beurteilst du auch heute noch deine Anforderungen nach dem was damals war und hast anscheinend die Veränderungen nicht mit bekommen.

  1. Thema

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. GK Software SE, Köln, Jena, Schöneck/Vogtland, Sankt Ingbert
  2. IT-Servicezentrum der bayerischen Justiz, Schwabmünchen, Bamberg
  3. Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), Bonn
  4. Simovative GmbH, München

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Riotoro Enigma G2 750-W-Netzteil Gold Plus für 69,99€, Acer Nitro 27-Zoll-Monitor für...
  2. (u. a. Dark Souls 3 Digital Deluxe für 14,99€, Hitman 2 Gold für 23,99€, Assassin's Creed...
  3. 399,00€ (Bestpreis! zzgl. Versand)
  4. (aktuell u. a. Evnbetter LED-Streifen in verschiedenen Ausführungen ab 33,90€, Beyerdynamic...


Haben wir etwas übersehen?

E-Mail an news@golem.de


DSGVO: Kommunen verschlüsseln fast nur mit De-Mail
DSGVO
Kommunen verschlüsseln fast nur mit De-Mail

Die Kommunen tun sich weiter schwer mit der Umsetzung der Datenschutz-Grundverordnung. Manche verstehen unter Daten-Verschlüsselung einen abschließbaren Raum für Datenträger.
Ein Bericht von Christiane Schulzki-Haddouti

  1. Digitale Versorgung Viel Kritik an zentraler Sammlung von Patientendaten
  2. Datenschutz Zahl der Behördenzugriffe auf Konten steigt
  3. Verschlüsselung Regierungen wollen Backdoors in Facebook für Untersuchungen

Fritzbox mit Docsis 3.1 in der Praxis: Hurra, wir haben Gigabit!
Fritzbox mit Docsis 3.1 in der Praxis
Hurra, wir haben Gigabit!

Die Fritzbox 6591 Cable für den Einsatz in Gigabit-Kabelnetzen ist seit Mai im Handel erhältlich. Wir haben getestet, wie schnell Vodafone mit Docsis 3.1 tatsächlich Daten überträgt und ob sich der Umstieg auf einen schnellen Router lohnt.
Ein Praxistest von Friedhelm Greis

  1. Nodesplits Vodafone bietet 500 MBit/s für 20 Millionen Haushalte
  2. Sercomm Kabelmodem für bis zu 2,5 GBit/s vorgestellt
  3. Kabelnetz Die Marke Unitymedia wird verschwinden

Gardena: Open Source, wie es sein soll
Gardena
Open Source, wie es sein soll

Wenn Entwickler mit Zeitdruck nach Lösungen suchen und sich dann für Open Source entscheiden, sollte das anderen als Vorbild dienen, sagen zwei Gardena-Entwickler in einem Vortrag. Der sei auch eine Anleitung dafür, das Management von der Open-Source-Idee zu überzeugen - was auch den Nutzern hilft.
Ein Bericht von Sebastian Grüner

  1. Linux-Kernel Machine-Learning allein findet keine Bugs
  2. KernelCI Der Linux-Kernel bekommt einheitliche Test-Umgebung
  3. Linux-Kernel Selbst Google ist unfähig, Android zu pflegen

  1. 7.000 Arbeitsplätze: Tesla will Gigafactory bei Berlin bauen
    7.000 Arbeitsplätze
    Tesla will Gigafactory bei Berlin bauen

    Elon Musk kündigte bei der Verleihung des Goldenen Lenkrads an, dass Tesla seine erste europäische Gigafactory in Brandenburg südöstlich von Berlin bauen wird. In der Hauptstadt selbst soll ein Design- und Entwicklungszentrum entstehen.

  2. US-Sanktionen: Doppeltes Gehalt für Huawei-Beschäftige im Oktober
    US-Sanktionen
    Doppeltes Gehalt für Huawei-Beschäftige im Oktober

    Huawei belohnt die Beschäftigten für ihre Energie und den Widerstand, die sie gegen den US-Boykott entwickeln. Die Teams, die den Schaden minimieren, können sich zusätzlich über 285 Millionen US-Dollar freuen.

  3. Telefónica Deutschland: Drittes 5G-Netz in Berlin gestartet
    Telefónica Deutschland
    Drittes 5G-Netz in Berlin gestartet

    Jetzt hat auch die Telefónica Deutschland ein 5G-Netz in Berlin eingeschaltet. Doch es ist nur ein kleines Campusnetz.


  1. 23:10

  2. 19:07

  3. 18:01

  4. 17:00

  5. 16:15

  6. 15:54

  7. 15:21

  8. 14:00