1. Foren
  2. Kommentare
  3. Games
  4. Alle Kommentare zum Artikel
  5. › Sweeney und Carmack: Zukunft ohne oder…

Sweeny ein bisschen gaga?

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


  1. Sweeny ein bisschen gaga?

    Autor: Yeeeeeeeeha 13.03.08 - 11:40

    Also mal ehrlich... Sweeny mag ja durchaus ein fähiger Mann sein, aber die Aussagen sind einfach nur lächerlich. GPUs und Soundchips sind absolut nicht miteinander zu vergleichen.
    Beim Sound sprechen wir von vergleichsweise winzigen und sehr beschränkten Datenmengen, für die für die meisten Operationen in den CPUs vorhandene SSE-Befehle perfekt nutzbar sind. Mehr als soundsoviele Kanäle gleichzeitig ist normalerweise halt nicht nötig. Trotzdem gibt es einen deutlich messbaren Unterschied, ob der Sound per CPU oder dedizierter Hardware gemischt wurde, vor nicht allzulanger Zeit machte das im Vergleich zwischen einer SB Audigy und CPU teilweise noch 10% Performanceunterschied aus.

    ABER: Bei Grafik sieht es vollkommen anders aus! Da sind die Anforderungen nach oben absolut offen. Als der MMX-Befehlssatz eingeführt wurde gab es die selben Aussagen: Durch diesen wurden die CPUs geeigneter für Grafikberechnungen, aber nichtmal im Ansatz so geeignet wie dafür ausgelegte GPUs.
    Ein anderes Beispiel: Raytracing kann nicht direkt auf einer normalen GPU berechnet werden, weil sie dafür nicht ausgelegt ist, auf einer CPU schon. Die zu erwartende Performance dürfte jedem klar sein. ABER nun gehen ein paar Leute von einer Uni her, entwerfen eine GPU mit für Raytracing spezialisierten Schaltungen und erhalten mit einem vergleichsweise lächerlich einfachen Chip das Vielfache der auf einer CPU erreichbaren Performance.

    Sicher gibt es Pläne der CPU-Hersteller, Grafikfunktionen direkt in die CPUs zu implementieren, schlicht und einfach um integrierte Grafik noch billiger anbieten zu können (bzw. bei Systems-on-a-Chip ist es schon lange so). Diese werden sich aber in der Komplexität von Onboard-Grafik bewegen und über eine dementsprechend schlechte Performance verfügen.

    So wie der Herr Sweeny sich das vorstellt, müsste die Grafikentwicklung der PCs für Jahre auf Eis gelegt werden, bis CPUs eine solche Komplexität und Leistungsfähigkeit erreichen, um auch nur Anschluss an die aktuellen GPUs zu bekommen.
    Ok, ich kann mir durchaus denken, in welche Richtung Sweeny hier denkt: Afaik arbeitet er gerade an einem Konsolen-Titel und ist derzeit eben sehr Konsolenbegeistert. ABER bis die nächsten Next-Gen-Konsolen erscheinen gehen noch x Jahre ins Land. Aktuelle HighEnd-PCs sind den aktuellen Konsolen jetzt schon überlegen, in ein bis zwei Jahren werden auch normale Midrange-PCs die Konsolen hinter sich lassen. Da kommt eher das von Carmack erwähnte Problem zum Tragen: Während die PCs konstant weiterentwickelt werden, sitzen die Konsolen in der Technik der Zeit ihres Releases fest. Da es immer mehr Multiplattformtitel gibt, müssen die sich natürlich an das schwächste Glied halten, was in nicht allzulanger Zeit die Konsolen sein werden.

  2. Re: Sweeny ein bisschen gaga?

    Autor: Martin F. 13.03.08 - 12:17

    Ich wäre mal für ordentliches Wavetracing für guten Ton.

    --
    Bitte prüfen Sie, ob Sie diesen Beitrag wirklich ausdrucken müssen!

  3. Re: Sweeny ein bisschen gaga?

    Autor: hobel 13.03.08 - 12:23

    Yeeeeeeeeha schrieb:

    > Sicher gibt es Pläne der CPU-Hersteller,
    > Grafikfunktionen direkt in die CPUs zu
    > implementieren, schlicht und einfach um
    > integrierte Grafik noch billiger anbieten zu
    > können (bzw. bei Systems-on-a-Chip ist es schon
    > lange so). Diese werden sich aber in der
    > Komplexität von Onboard-Grafik bewegen und über
    > eine dementsprechend schlechte Performance
    > verfügen.
    >
    > So wie der Herr Sweeny sich das vorstellt, müsste
    > die Grafikentwicklung der PCs für Jahre auf Eis
    > gelegt werden, bis CPUs eine solche Komplexität
    > und Leistungsfähigkeit erreichen, um auch nur
    > Anschluss an die aktuellen GPUs zu bekommen.

    Es wird der Tag X kommen, da wird Intel eine CPU
    Anbieten, die kostet 300 Euro, und hat soviel Power wie
    die 200 Euro NVidia Graka, schlicht und einfach weil
    dieselbe Hardware on Die ist.
    Wie wird sich der Verbraucher entscheiden?
    200 Euro CPU + 200 Euro Graka?
    Oder 300 Euro CPU mit Grafik drinne?

    Der Tag X ist nicht mehr so weit weg, die wissen nicht wohin
    mit dem Die Space.
    16 Core? Ist das sinnvoll? Oder lieber 4core + Grafik?
    Es wird kommen, der Mann hat recht.

  4. Re: Sweeny ein bisschen gaga?

    Autor: mr. friday 13.03.08 - 12:53

    dein tag x wird frühstens in 10 jahren da sein, wenn überhaupt

    soooooooo schnell geht das auch wieder nicht

  5. Re: Sweeny ein bisschen gaga?

    Autor: feierabend 13.03.08 - 13:00

    hobel schrieb:
    -------------------------------------------------------
    > Yeeeeeeeeha schrieb:
    >
    > > Sicher gibt es Pläne der CPU-Hersteller,
    >
    > Grafikfunktionen direkt in die CPUs zu
    >
    > implementieren, schlicht und einfach um
    >
    > integrierte Grafik noch billiger anbieten zu
    >
    > können (bzw. bei Systems-on-a-Chip ist es
    > schon
    > lange so). Diese werden sich aber in
    > der
    > Komplexität von Onboard-Grafik bewegen
    > und über
    > eine dementsprechend schlechte
    > Performance
    > verfügen.
    >
    > So wie der
    > Herr Sweeny sich das vorstellt, müsste
    > die
    > Grafikentwicklung der PCs für Jahre auf Eis
    >
    > gelegt werden, bis CPUs eine solche
    > Komplexität
    > und Leistungsfähigkeit erreichen,
    > um auch nur
    > Anschluss an die aktuellen GPUs
    > zu bekommen.
    >
    > Es wird der Tag X kommen, da wird Intel eine CPU
    > Anbieten, die kostet 300 Euro, und hat soviel
    > Power wie
    > die 200 Euro NVidia Graka, schlicht und einfach
    > weil
    > dieselbe Hardware on Die ist.
    > Wie wird sich der Verbraucher entscheiden?
    > 200 Euro CPU + 200 Euro Graka?
    > Oder 300 Euro CPU mit Grafik drinne?
    >
    > Der Tag X ist nicht mehr so weit weg, die wissen
    > nicht wohin
    > mit dem Die Space.
    > 16 Core? Ist das sinnvoll? Oder lieber 4core +
    > Grafik?
    > Es wird kommen, der Mann hat recht.
    >

    Was du nicht siehst, ist der unterschied ywischen einer CPU und einer GPU. Auch 100 aktuelle CPUs können eine aktuelle GPU nicht 100% ersetzen.
    Genau wie eine aktuelle CPU z.B. den Soundchip des Amiga immer noch nicht 100% emulieren kann.
    Es sind einfach Spezialisierte Cips.

    Vielleicht gibt es bald sich selbst ordnende/variable Prozessor Kerne. Aber ich denek da wird noch einige Zeit vergehen.

  6. Re: Sweeny ein bisschen gaga?

    Autor: Yeeeeeeeeha 13.03.08 - 13:03

    feierabend schrieb:
    -------------------------------------------------------
    > Vielleicht gibt es bald sich selbst
    > ordnende/variable Prozessor Kerne. Aber ich denek
    > da wird noch einige Zeit vergehen.

    Shader? ;)

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  7. Re: Sweeny ein bisschen gaga?

    Autor: R100 13.03.08 - 13:04

    Yeeeeeeeeha schrieb:
    -------------------------------------------------------

    ....

    > Aktuelle HighEnd-PCs sind den
    > aktuellen Konsolen jetzt schon überlegen, in ein
    > bis zwei Jahren werden auch normale Midrange-PCs
    > die Konsolen hinter sich lassen. Da kommt eher das
    > von Carmack erwähnte Problem zum Tragen: Während
    > die PCs konstant weiterentwickelt werden, sitzen
    > die Konsolen in der Technik der Zeit ihres
    > Releases fest. Da es immer mehr
    > Multiplattformtitel gibt, müssen die sich
    > natürlich an das schwächste Glied halten, was in
    > nicht allzulanger Zeit die Konsolen sein werden.


    Dann hätten die Spieleentwickler endlich mal zeit um einen gescheiten Spieleinhalt zu entwickeln, anstatt sich nur um
    die schönste Grafik zu bashen..

  8. Re: Sweeny ein bisschen gaga?

    Autor: Yeeeeeeeeha 13.03.08 - 13:06

    R100 schrieb:
    -------------------------------------------------------
    > Dann hätten die Spieleentwickler endlich mal zeit
    > um einen gescheiten Spieleinhalt zu entwickeln,
    > anstatt sich nur um
    > die schönste Grafik zu bashen..


    Nope, leider nicht, die müssen ja erstmal rausfinden, wie man den Cell richtig ausnutzt *fg*

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  9. Sei doch mal ein bischen visionär!

    Autor: motzerator 13.03.08 - 13:13

    Die fehl

    > ABER: Bei Grafik sieht es vollkommen anders aus!
    > Da sind die Anforderungen nach oben absolut offen.
    > Als der MMX-Befehlssatz eingeführt wurde gab es
    > die selben Aussagen: Durch diesen wurden die CPUs
    > geeigneter für Grafikberechnungen, aber nichtmal
    > im Ansatz so geeignet wie dafür ausgelegte GPUs.

    Okay, lassen wir uns mal ein bisschen träumen. Also
    mein erster Computer war ein Atari 800 XL, der hatte
    64 Kilobyte RAM und 90 KB passten auf eine Floppy.
    Sein Takt war 1 mHz.

    Heute sind 2 GB RAM Standard. Das sind 2048 MB und
    ein MB sind 16 mal 64 KB. Also hat mein PC 32768 mal
    so viel Speicher wie damals der Atari.

    Der Takt meines PC mit Core 2 Duo beträgt 2,16 gHz,
    das ist alleine vom Takt her das 2160 fache zu dem
    kleinen Atari.

    Angenommen das Spiel geht so wieter, wird man ähnliche
    Skalierungen auch bei der Zahl der Kerne erleben. Was
    glaubst Du, wozu beispielsweise 1024 Kerne paralell
    so alles an Daten wegschaufeln. Das reicht sogar für
    RayTracing in Echtzeit mit einer hohen Anzahl an
    Objekten und Polygonen.

    Da braucht man keine GPU mehr, die nicht mal in der
    Lage ist zu 100% korrekt zu zeichnen.

    Also ich glaube der Sweeny hat da schon recht,
    irgendwann braucht man keine Grafikkarte mehr.

    Chris

  10. Re: Sei doch mal ein bischen visionär!

    Autor: Martin F. 13.03.08 - 13:26

    motzerator schrieb:
    -------------------------------------------------------
    > Angenommen das Spiel geht so wieter, wird man
    > ähnliche
    > Skalierungen auch bei der Zahl der Kerne erleben.
    > Was
    > glaubst Du, wozu beispielsweise 1024 Kerne
    > paralell
    > so alles an Daten wegschaufeln. Das reicht sogar
    > für
    > RayTracing in Echtzeit mit einer hohen Anzahl an
    > Objekten und Polygonen.
    >
    > Da braucht man keine GPU mehr, die nicht mal in
    > der
    > Lage ist zu 100% korrekt zu zeichnen.

    Bei Computerbase gibt es einen ganz interessanten Artikel zu Raytracing. Dem Artikel nach soll das gar nicht so aufwendig sein und bei komplexer Geometrie auch einfach besser skalierend.

    --
    Bitte prüfen Sie, ob Sie diesen Beitrag wirklich ausdrucken müssen!

  11. Re: Sei doch mal ein bischen visionär!

    Autor: Yeeeeeeeeha 13.03.08 - 13:29

    motzerator schrieb:
    -------------------------------------------------------
    > Angenommen das Spiel geht so wieter, wird man
    > ähnliche
    > Skalierungen auch bei der Zahl der Kerne erleben.
    > Was
    > glaubst Du, wozu beispielsweise 1024 Kerne
    > paralell
    > so alles an Daten wegschaufeln. Das reicht sogar
    > für
    > RayTracing in Echtzeit mit einer hohen Anzahl an
    > Objekten und Polygonen.
    >
    > Da braucht man keine GPU mehr, die nicht mal in
    > der
    > Lage ist zu 100% korrekt zu zeichnen.

    Das halte ich für absolut den falschen Ansatz. Denn: Nicht nur die technische Entwicklung geht weiter, sondern auch der Anspruch wird höher. Wenn Raytracing mit einer hohen Anzahl an Objekten und Polygonen möglich ist, wieso sollte man da stehenbleiben? Weshalb nicht Radiosity benutzen? Und schon sind die Anforderungen wieder um einen riesen Faktor gestiegen.


    Es ist nunmal eine Tatsache: Spezialisierte Schaltungen sind effizienter als allgemeine. D.h. eine allgemeine CPU wird nie die Leistung eines ähnlich komplexen - somit ähnlich teuren - Spezialchips erreichen, ausser man integriert die speziellen Schaltungen in die CPU, was deren Komplexität aber wahrscheinlich so ansteigen lässt, dass der Aufwand zur Herstellung und damit der Preis weit über dem von zwei auf ihre Aufgaben spezialisierten Chips liegt.


    Der einzig wirklich sinnvolle Weg in diese Richtung wurde in einem anderen Beitrag schon erwähnt. Wenn man mal kostengünstig CPUs herstellen kann, die ihr Schaltungslayout nach Belieben verändern können, DANN ist das umsetzbar (und sogar ziemlich cool, weil man je nach Anforderung die richtigen Rechenwerke bekommt).

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  12. Re: Sei doch mal ein bischen visionär!

    Autor: Yeeeeeeeeha 13.03.08 - 13:53

    Martin F. schrieb:
    -------------------------------------------------------
    > Bei Computerbase gibt es einen ganz interessanten
    > Artikel zu Raytracing. Dem Artikel nach soll das
    > gar nicht so aufwendig sein und bei komplexer
    > Geometrie auch einfach besser skalierend.

    Jup, das ist absolut richtig. Raytracer sind sehr einfach zu programmieren und skalieren immens gut, sogar mit ganzen Renderfarmen.

    Eines hat der Herr Intel-Angestellte aber leider vergessen: Intel mag inzwischen einen immens schnellen Raytracer auf ihren Quadcores laufen haben, aber die Saar-Uni, von der OpenRT stammt - hatte schon vor Jahren einen vergleichsweise bocksimplen Chip mit 300MHz realisiert, dessen Raytracing-Performance Welten vor den damaligen CPUs lag (obwohl er mit einer vergleichsweise lächerlichen MHz-Zahl lief).
    Jetzt stell dir mal vor, ein derartiger Spezialchip wird im GHz-Bereich mit der Komplexität einer CPU oder GPU gebaut!

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  13. Re: Sei doch mal ein bischen visionär!

    Autor: BF 13.03.08 - 14:29

    Also läuft es darauf hinaus, dass die heutigen Grafikkartenhersteller auf Raytracing setzen, spezialisierte multicore Chips auf ihre Karten setzen und die 16core CPU's wieder zeit haben sich um die wichtigen Dinge des Lebens zu kümmern wie Virenscanner, Sidebargadgets, Aero, intelligenten Hintergrundübertragungsdienster etc., während der Spieler schön Quake5 Raytraced daddelt.

  14. Re: Sei doch mal ein bischen visionär!

    Autor: Yeeeeeeeeha 13.03.08 - 14:35

    BF schrieb:
    -------------------------------------------------------
    > Also läuft es darauf hinaus, dass die heutigen
    > Grafikkartenhersteller auf Raytracing setzen,
    > spezialisierte multicore Chips auf ihre Karten
    > setzen und die 16core CPU's wieder zeit haben sich
    > um die wichtigen Dinge des Lebens zu kümmern wie
    > Virenscanner, Sidebargadgets, Aero, intelligenten
    > Hintergrundübertragungsdienster etc., während der
    > Spieler schön Quake5 Raytraced daddelt.


    *g* Irgendwie muss Intel ja seine n-Core-CPUs loswerden. ;)

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  15. falsch

    Autor: MS-Admin 13.03.08 - 17:45

    > mein erster Computer war ein Atari 800 XL,
    > Sein Takt war 1 mHz.

    Falsch. Der hatte 1.78 MHz.

    > Also ich glaube der Sweeny hat da schon recht,
    > irgendwann braucht man keine Grafikkarte mehr.

    Das denke ich auch. Und der Vergleich mit den Soundkarten ist gar nicht so falsch. Die Soundkarte vereinfachen konnte man, als die CPU den erforderlichen Support in Fom von DSP-ähnlichen Befehlen (SSE) und eine ausreichende IO-Bandbreite mitbrachte.

    Wenn diese Anforderungen auch für Videobearbeitung erfüllt sind, spricht nichts dagegen, auf eine GPU zu verzichten.

    Wenn es in 5 Jahren Multicores mit 16 CPUs gibt, die dann vielleicht alle noch jeweils 16 Shader mit bringen, dann ist die Sache gelaufen. Das ist dar nicht so weit von den Intel/AMD-Konzepten entfernt.



  16. RTFA

    Autor: octree 13.03.08 - 17:50

    motzerator schrieb:
    -------------------------------------------------------

    > glaubst Du, wozu beispielsweise 1024 Kerne
    > paralell
    > so alles an Daten wegschaufeln. Das reicht sogar
    > für
    > RayTracing in Echtzeit mit einer hohen Anzahl an
    > Objekten und Polygonen.

    les mal carmacks artikel und was der
    a) zu rt sagt
    und b) zu rt von polygonen sagt ;-)

  17. blah und blubb

    Autor: verstrahlt 13.03.08 - 18:38

    So langsam nervt mich John Carmack. Wurden seine Aussagen von Nvidia gesponsert? Ich habe respekt vor ihm, er ist programmiertechnisch sicherlich ein kleines Genie, aber auch der schlauste Mensch kann nicht hellsehen. Seine knochenharten, von mir aus dynamischen Stencil Shadows waren zuletzt auch nicht die Innovation des Jahrhunderts, obs die MegaTexture wird, wird sich zeigen....
    Das er anscheinend über ratraycen von Polygonen lästert kann ich sogar fast verstehen, ich finde Triangles oder Bezierpatches viel cooler.
    Wenn wir von Zukunft und ausreichender Leistung sprechen, wird die gefakete Rasterisierungslösung die gänzlich ohne Strahlen auskommen will, alt aussehen, oder halt auf keinen Fall so schön ausgeleuchtet. Unsere Welt besteht ja zum Glück aus mehr, als flackernden Shadow Maps, direktem Licht und wie die ganzen anderen maps auch heissen ;)
    Das mit der FPU fand ich damals auch sehr beeindruckend und hat auf jedenfall gezeigt, dass eine ordentlich gesponsorte^^ Entwicklung in diese Richtung schnell einen ordentlich laufenden Raytracer zu Tage gebracht hätte, ohne den Einsatz einer GPU. Was nicht heisst, das Raytracer nicht auf GPU´s laufen, sogar schon vor Zeiten von CUDA, diese Aussage war schwachsinn... zurück zum Thema.
    Es ist ja nicht nur die Rendering Equation die einem den Saft zieht, sondern auch eine gute, für dynamische Szenen geeignete Beschleunigungsstruktur...Wenn aber schon globale Beleuchtung, dann bitte mehr als nur Radiosity. Den ambienten Term verbeiten ja anscheinend schon die ersten RasterEngines...
    genug gefaselt, nicht alles was Carmack behauptet ist Gesetz

  18. Re: falsch

    Autor: Yeeeeeeeeha 13.03.08 - 18:46

    MS-Admin schrieb:
    -------------------------------------------------------
    > Wenn es in 5 Jahren Multicores mit 16 CPUs gibt,
    > die dann vielleicht alle noch jeweils 16 Shader
    > mit bringen, dann ist die Sache gelaufen. Das ist
    > dar nicht so weit von den Intel/AMD-Konzepten
    > entfernt.

    Andersrum musst du aber bedenken, wie GPUs in fünf Jahren aussehen... das wird Welten von dem entfernt sein.

    Der Vergleich zum Sound hinkt trotzdem. Es besteht nicht die Notwendigkeit, die Komplexität der Sound-Generierung unendlich in die Höhe zu treiben und für das, was man machen will, reicht eine CPU aus. Aber stell dir mal vor, der Soundtrack wäre nicht als z.B. fertiges OGG gespeichert, sondern würde sozusagen live über Software-Synthesizer erzeugt werden. Da würde man mit einer normalen CPU nicht mehr viel weiterkommen. Trotzdem kann man spezialisierte Hardware bauen, für die das absolut kein Problem ist.

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  19. Re: blah und blubb

    Autor: octree 13.03.08 - 18:53

    verstrahlt schrieb:
    -------------------------------------------------------

    > Das er anscheinend über ratraycen von Polygonen
    > lästert kann ich sogar fast verstehen, ich finde
    > Triangles oder Bezierpatches viel cooler.

    zum einen, was sind triangles, wenn nicht polygone?
    zum zweiten, bezierpatches? jaja, ich weiß, nurbs etc kann man auch in echtzeit tracen, aber wer außerhalb der automobilindustrie will das schon? welche oberflächen in spielen sind so glatt?

    > Wenn wir von Zukunft und ausreichender Leistung
    > sprechen, wird die gefakete Rasterisierungslösung
    > die gänzlich ohne Strahlen auskommen will, alt
    > aussehen, oder halt auf keinen Fall so schön
    > ausgeleuchtet.

    für pixar reicht die technik in der regel sogar für ihre filme noch aus, das nur am rande

    > Wenn aber schon globale
    > Beleuchtung, dann bitte mehr als nur Radiosity.

    technisch richtig, radiosity hat viele einschränkungen, nicht nur fehlende kaustiken.
    aber wenn ich mich in der welt umsehe... selten sehe ich effekte, die mehr als radiosity bräuchten, und davon kann man so manche billig faken (hey, es geht um spiele, es muss nur gut aussehen, ich korrekt sein!)

  20. Re: blah und blubb

    Autor: Yeeeeeeeeha 13.03.08 - 19:00

    octree schrieb:
    -------------------------------------------------------
    > zum einen, was sind triangles, wenn nicht
    > polygone?
    > zum zweiten, bezierpatches? jaja, ich weiß, nurbs
    > etc kann man auch in echtzeit tracen, aber wer
    > außerhalb der automobilindustrie will das schon?
    > welche oberflächen in spielen sind so glatt?

    Öhm, afaik sind Nurbs ja nur eine Art der mathematischen Beschreibung von Formen, allerdings eine sehr elegante für "organische" Formen. Fürs Rendering werden sie afaik auch per Tesselation in Polygone zerlegt.
    Und jaja ganz richtig, ein Dreieck ist ein Polygon und zwar das das einzige, das unter allen Umständen eine Fläche ohne Knick ergibt. Jedes andere Polygon lässt sich durhc Dreiecke beschreiben.

    Yeeeeeeeeha - Nur echt mit 2^3 e
    Perl-Monk, Java-Trinker, Objective-C Wizard, PHP-Kiddie, unfreiwilliger FreeBSD-/Linux-Teilzeitadmin

  1. Thema
  1. 1
  2. 2
  3. 3

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. über duerenhoff GmbH, Frankfurt am Main
  2. SySS GmbH, Tübingen
  3. Atlas Copco IAS GmbH, Bretten
  4. Technische Universität Berlin, Berlin

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Top-Angebote
  1. (u. a. Nintendo Switch 270,00€, Gigabyte GeForce RTX 2070 Super Gaming OC für 479,00€, Zotac...
  2. 59,99€ (PC)/ 69,99€ (PS4, Xbox) - Release am 20. März
  3. 68,90€
  4. (aktuell u. a. Emtec X150 Power Plus SSD 480 GB für 52,90€, Apacer AS340 120 GB SSD für 18...


Haben wir etwas übersehen?

E-Mail an news@golem.de


Lovot im Hands-on: Knuddeliger geht ein Roboter kaum
Lovot im Hands-on
Knuddeliger geht ein Roboter kaum

CES 2020 Lovot ist ein Kofferwort aus Love und Robot: Der knuffige japanische Roboter soll positive Emotionen auslösen - und tut das auch. Selten haben wir so oft "Ohhhhhhh!" gehört.
Ein Hands on von Tobias Költzsch

  1. Orcam Hear Die Audiobrille für Hörgeschädigte
  2. Schräges von der CES 2020 Die Connected-Kartoffel
  3. Viola angeschaut Cherry präsentiert preiswerten mechanischen Switch

Amazon, Netflix und Sky: Disney bringt 2020 den großen Umbruch beim Videostreaming
Amazon, Netflix und Sky
Disney bringt 2020 den großen Umbruch beim Videostreaming

In diesem Jahr wird sich der Video-Streaming-Markt in Deutschland stark verändern. Der Start von Disney+ setzt Netflix, Amazon und Sky gehörig unter Druck. Die ganz großen Umwälzungen geschehen vorerst aber woanders.
Eine Analyse von Ingo Pakalski

  1. Peacock NBC Universal setzt gegen Netflix auf Gratis-Streaming
  2. Joyn Plus+ Probleme bei der Kündigung
  3. Android TV Magenta-TV-Stick mit USB-Anschluss vergünstigt erhältlich

Digitalisierung: Aber das Faxgerät muss bleiben!
Digitalisierung
Aber das Faxgerät muss bleiben!

"Auf digitale Prozesse umstellen" ist leicht gesagt, aber in vielen Firmen ein komplexes Unterfangen. Viele Mitarbeiter und Chefs lieben ihre analogen Arbeitsmethoden und fürchten Veränderungen. Andere wiederum digitalisieren ohne Sinn und Verstand und blasen ihre Prozesse unnötig auf.
Ein Erfahrungsbericht von Marvin Engel

  1. Arbeitswelt SAP-Chef kritisiert fehlende Digitalisierung und Angst
  2. Deutscher Städte- und Gemeindebund "Raus aus der analogen Komfortzone"
  3. Digitalisierungs-Tarifvertrag Regelungen für Erreichbarkeit, Homeoffice und KI kommen

  1. Nanoracks: Astronauten backen Kekse auf der ISS
    Nanoracks
    Astronauten backen Kekse auf der ISS

    Frische Kekse 400 Kilometer über der Erde: Der Esa-Astronaut Luca Parmitano hat erstmals auf der ISS gebacken. Was auf der Erde einfach ist, erwies sich im Weltraum als kompliziert. Er brauchte mehrere Anläufe, um ein annehmbares Ergebnis zu erzielen.

  2. Nintendo: Mario Kart Tour testet Mehrspielerrennen
    Nintendo
    Mario Kart Tour testet Mehrspielerrennen

    Erst durften nur Abonnenten teilnehmen, nun können alle Spieler per Smartphone in Mario Kart Tour in Multiplayerrennen um die Wette fahren. Wer mag, kann sich Gegner in seiner geografischen Nähe vorknöpfen.

  3. ERP-Software: S/4 HANA liegt erstmals vor der Business Suite
    ERP-Software
    S/4 HANA liegt erstmals vor der Business Suite

    Die SAP-Anwenderfirmen haben den Umstieg vollzogen. Die Investitionen fließen in das neuere Produkt, so wie von SAP geplant. Wenn auch später, als viele erwartet haben.


  1. 19:34

  2. 16:40

  3. 16:03

  4. 15:37

  5. 15:12

  6. 14:34

  7. 14:12

  8. 13:47