Abo
  1. Foren
  2. Kommentare
  3. Wissenschaft
  4. Alle Kommentare zum Artikel
  5. › Manycore nur für Supercomputer…

Tja, ist wohl doch nicht so einfach...

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


  1. Tja, ist wohl doch nicht so einfach...

    Autor: Zyklotron B 26.05.10 - 10:24

    Ati bzw. AMD und nvidia prügeln sich auf dem Schlachtfeld schon seit Jahren und haben die Hardware und Algorithmen zu tode optimiert um sich gegenseitig Paroli zu bieten. Da ist es wohl nicht so einfach mit 'nem dicken Geldbeutel, grossen Sprüchen und korrupten Methoden mal schnell einzusteigen und alle wegzuhauen.

    Selbst nvidia hat zur Zeit recht massig zu schlucken mit ihrer neuen doch nicht so toll lieferbaren Karte...

    Tja Intel, war wohl nix...

    PS: Hoffe nur Intel kauft nicht nvidia, denn das wäre beschissen für alle

    \m/(^_^)\m/

  2. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Mike. 26.05.10 - 10:29

    > PS: Hoffe nur Intel kauft nicht nvidia, denn das wäre beschissen für alle

    Ideal fände ich, wenn sich nVidia und VIA zusammenschließen. Dann gabs da auch x86-CPU und Graphikpower aus einem Haus. Da muß halt dann die GPU das aufholen was der Nano nicht schafft. Auber daraus liese sich was machen.

  3. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Hans Meiser23 26.05.10 - 10:30

    You're right mate :-)

    Wer hätte das gedacht, als AMD Ati kaufte, dass Ati nicht nur AMD Arsch retten würde, sondern auch wenigstens einen gewissen Vorsprung gegen Intel in einem Bereich liefert.

  4. Re: Tja, ist wohl doch nicht so einfach...

    Autor: ABDC 26.05.10 - 10:33

    Die Idee von Intel war von vorn herein schwachsinnig.

    Wer auch immer bei Intel auf die Idee kam, dass "normale" x86-Kerne jemals hochspezialisierten Recheneinheiten der anderen GPUs überlegen sein können.

    In Sachen Grafik hat Intel einfach kein KnowHow. Das sieht man ja exellent an den Grafikchips von denen. Einfach nur Grütze.

  5. Re: Tja, ist wohl doch nicht so einfach...

    Autor: d2 26.05.10 - 11:06

    Die Idee ist grundsätzlich nicht verkehrt, nur vielleicht 10 Jahre zu früh da.

    Irgendwann wird es Spiele mit Raytracing geben, da wäre die programmierbaren x86-Kerne garnicht mal so schlecht.

    Man stelle sich vor jedes Programm entscheidet selber wieviel Power es braucht, z. B: 4 Kerne für die Spiellogik und 124 Kerne für die Grafik.

  6. Re: Tja, ist wohl doch nicht so einfach...

    Autor: zustimmaaah 26.05.10 - 11:12

    >Die Idee ist grundsätzlich nicht verkehrt, nur vielleicht 10 Jahre zu früh da.

    Jupp, ganz meine Meinung. Intel wird wie im Artikel schon erwähnt vorerst in Richtung Laptop bzw. stromsparendere Technik gehen. Wenn die Kerne dann mal sparsam genug sind wirds auch eine Grafikkarte geben. Im moment denke ich ist eine x86-Kern-Karte schlicht und einfach ein übler Energieverschwender.

  7. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Critter 26.05.10 - 11:13

    @ABCD: Genau, also als ich das damals hörte, Grafikakrte aus x86 Kernen musste ich auch nur schmmunzeln.
    Die Treiber von Intel sind auch für ihre einfachen Grafikchips totaler mist. Bei einem früheren Job hatte ich auch mal einen rechner mit Intel Onboard Grafik. Ständig Grafikfehler u.ä.

  8. Re: Tja, ist wohl doch nicht so einfach...

    Autor: ab ge sprochen 26.05.10 - 11:20

    Ihr glaubt an einen Markt ?

    Die Reviere sind abgesteckt.
    Intel CPUs und Chipsets. Nvidia darf ja keine i3/i5/i7-Chipsets bauen. AMD könnte, will aber nicht.
    AMD darf ATI betreiben um NVidia Konkurrenz zu machen und umgekehrt.

    Google darf Admob übernehmen. Dafür hat Apple iAd gegründet. Google macht weiter Werbung und Apple hat weiter das beste Phone. iAd wird nur mini sein und nicht auf andere Phones gehen und google alle anderen Phones überlassen. Dafür entwickelt Google nur pseudomäßig an Android und bietet z.b. keine Bedienung für Oma/Opa/Blödine sondern nur für Leute mit "PC-Studium".
    Das ist knallhart abgesprochen oder wenn es abgesprochen wäre, wäre es nicht anders.

  9. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Crass Spektakel 26.05.10 - 11:40

    > Wer hätte das gedacht, als AMD Ati kaufte, dass Ati nicht nur AMD Arsch
    > retten würde, sondern auch wenigstens einen gewissen Vorsprung gegen Intel
    > in einem Bereich liefert.

    In einem Bereich?

    Derzeit hat AMD gegenüber Intel+NVidia in allen Bereichen die Nase vorn bis auf High-End-CPUs der €800-Preisklasse.

    SATA3, durchgehend PCIE2.0 und davon viele Lanes, sehr schnelle Chipsets, beste Grafikkarte, super Low-End und Midrange-CPUs...

    Intel ist drauf und dran durch politische Hardwarevorgaben die mit dem Core2 erarbeitet Vormachtsstellung zu verspielen.

  10. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Uschi12 26.05.10 - 11:41

    ab ge sprochen schrieb:
    --------------------------------------------------------------------------------
    > und Apple hat weiter das beste Phone.

    Ab da musste ich durchgehend bis zum Ende deines Posts lachen. Danke dafür.

  11. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 11:43

    naja, der grafikteil bei larrabee wäre ja nur ein abfallprodukt gewesen. aber das weiss man natürlich als ideologisch verblendeter nicht.

  12. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 11:44

    genau das. aber lass die teenies schön gegen "die großen da oben", fern von fakten, schwafeln. schliesslich kommen sie grade gedrillt aus der schule oder stecken noch drin.

  13. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 11:47

    ABDC schrieb:
    --------------------------------------------------------------------------------
    > Die Idee von Intel war von vorn herein schwachsinnig.

    warum?

    > Wer auch immer bei Intel auf die Idee kam, dass "normale" x86-Kerne jemals
    > hochspezialisierten Recheneinheiten der anderen GPUs überlegen sein
    > können.

    wahrscheinlich jemand mit weit aus mehr sachverstand und lebenserfahrung als du. es ging allerdings auch um raytracing, fernab von directx und co. und grafik war auch nur eine art, larrabee zu nutzen.

    > In Sachen Grafik hat Intel einfach kein KnowHow. Das sieht man ja exellent
    > an den Grafikchips von denen. Einfach nur Grütze.

    genau. und deshalb führt intel auch als gpu-hersteller. dass gamer-lamer damit nicht zufrieden zu stellen sind, ist intel wohl bewusst und bei den igps wohl auch relativ latte. sie liefern in der aktuellen generation bild und beschleunigen hd-decoding, gepaart mit hdmi, dvi und co. so what?

  14. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 11:48

    das kannst du anhand von zahlen belegen? intel verkauft immer noch weit mehr chips im cpu- und gpu-sektor als amd.

  15. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Warum das 26.05.10 - 12:01

    Auch in 10 Jahren ist eine teilweise in Hardware gegossene Pipeline noch schneller als eine völlig frei programmierbare. Der Grund aus dem das Raytraying auf akteullen Grafikkarten vielleicht langsamer ist als auf dem Larrabee, ist einfach, dass sie nicht fürs Raytracing gemacht wurden.

  16. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 12:03

    wow - spezialhardware ist schneller als general-purpose-ansätze. riesenerkenntnis...

  17. Re: Tja, ist wohl doch nicht so einfach...

    Autor: ABDC 26.05.10 - 12:06

    Es ist doch vollkommen egal, ob Intel mit den Chipssätzen Marktführer ist, die Performance ist unter aller Kanone und die Treiber sind verbuggt ohne Ende.

    Ich hab selbst eine X3100 und da ruckelt bei 1920x1200 gerne mal der Desktop. Ja, der Desktop!

    Und das es nicht nur um Raytracing ging, geht doch selbst aus dem Text hervor. Und Larrabee war selbst als "GPGPU" viel zu lahm. Also das kann auch nicht das Ziel gewesen sein. Aktuelle GPUs und ATi und NVidia haben da schon deutlich mehr Leistung und sind bereits auf dem Markt und keine Papiertiger.

    Insgesamt sind die GPUs von ATi und NVidia den Intel-Teilen einfach haushoch überlegen, in jedem Anwendungsfall, sei es GPGPU oder DirectX/OpenGL. Sogar bei Raytracing. Per CUDA wurde Echtzeit-Raytracing auf einer GPU schon gezeigt, da war Larrabee noch ein Gerücht.

    Nicht umsonst hat Intel das Projekt als Grafikkarte auf Eis gelegt.

    tunnelblick schrieb:
    --------------------------------------------------------------------------------
    > ABDC schrieb:
    > ---------------------------------------------------------------------------
    > -----
    > > Die Idee von Intel war von vorn herein schwachsinnig.
    >
    > warum?
    >
    > > Wer auch immer bei Intel auf die Idee kam, dass "normale" x86-Kerne
    > jemals
    > > hochspezialisierten Recheneinheiten der anderen GPUs überlegen sein
    > > können.
    >
    > wahrscheinlich jemand mit weit aus mehr sachverstand und lebenserfahrung
    > als du. es ging allerdings auch um raytracing, fernab von directx und co.
    > und grafik war auch nur eine art, larrabee zu nutzen.
    >
    > > In Sachen Grafik hat Intel einfach kein KnowHow. Das sieht man ja
    > exellent
    > > an den Grafikchips von denen. Einfach nur Grütze.
    >
    > genau. und deshalb führt intel auch als gpu-hersteller. dass gamer-lamer
    > damit nicht zufrieden zu stellen sind, ist intel wohl bewusst und bei den
    > igps wohl auch relativ latte. sie liefern in der aktuellen generation bild
    > und beschleunigen hd-decoding, gepaart mit hdmi, dvi und co. so what?

  18. Re: Tja, ist wohl doch nicht so einfach...

    Autor: Zyklotron B 26.05.10 - 12:16

    Mike. schrieb:
    --------------------------------------------------------------------------------
    > > PS: Hoffe nur Intel kauft nicht nvidia, denn das wäre beschissen für
    > alle
    >
    > Ideal fände ich, wenn sich nVidia und VIA zusammenschließen. Dann gabs da
    > auch x86-CPU und Graphikpower aus einem Haus. Da muß halt dann die GPU das
    > aufholen was der Nano nicht schafft. Auber daraus liese sich was machen.

    Ja, das fände ich auch interessant. VIA hat ja den S3 für Graphik, welcher aber schon seit vielen Jahren nicht wirklich weiterentwickelt wurde und hauptsächlich als "besser als nix" Grafikkarte gilt.

    Wenn die 2 sich zusammenschliessen, wäre die Zukunft von nvidia weit sicherer, und neue Entwicklungen beim Zusammenschluss von CPU und GPU interessant.

    Zur Zeit ist ja nur ati/amd da wirklich interessant, da die gpus von intel unter aller Sau sind, und sogar langsamer rendern als wenn die cpu das direkt tut (atom evtl. ausgenommen)...

    \m/(^_^)\m/

  19. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 12:36

    Zyklotron B schrieb:
    --------------------------------------------------------------------------------
    > da die gpus von intel
    > unter aller Sau sind, und sogar langsamer rendern als wenn die cpu das
    > direkt tut (atom evtl. ausgenommen)...

    dazu hast du bestimmt passende weblinks?

  20. Re: Tja, ist wohl doch nicht so einfach...

    Autor: tunnelblick 26.05.10 - 12:40

    ABDC schrieb:
    --------------------------------------------------------------------------------
    > Es ist doch vollkommen egal, ob Intel mit den Chipssätzen Marktführer ist,
    > die Performance ist unter aller Kanone und die Treiber sind verbuggt ohne
    > Ende.

    die performance ist aber nicht das ziel. bei den treibern kenne ich nur die für linux und die sind sehr brauchbar.

    > Ich hab selbst eine X3100 und da ruckelt bei 1920x1200 gerne mal der
    > Desktop. Ja, der Desktop!

    hatten bei 2d nicht momentan insbesondere amd riesenprobleme?

    > Und das es nicht nur um Raytracing ging, geht doch selbst aus dem Text
    > hervor. Und Larrabee war selbst als "GPGPU" viel zu lahm. Also das kann
    > auch nicht das Ziel gewesen sein. Aktuelle GPUs und ATi und NVidia haben da
    > schon deutlich mehr Leistung und sind bereits auf dem Markt und keine
    > Papiertiger.

    ja, dafür ziehen sie auch mehr als ne größenordnung mehr strom. wow. und die igps sind genauso schlecht wie die von intel, da vergleicht man 3d-technisch pest mit cholera.

    > Insgesamt sind die GPUs von ATi und NVidia den Intel-Teilen einfach
    > haushoch überlegen, in jedem Anwendungsfall, sei es GPGPU oder
    > DirectX/OpenGL. Sogar bei Raytracing. Per CUDA wurde Echtzeit-Raytracing
    > auf einer GPU schon gezeigt, da war Larrabee noch ein Gerücht.

    in jedem anwendungsfall? ich hab noch nie von 2d-problemen bei intel gehört und hd können die mittlerweile auch anständig mitdecoden. was braucht man denn mehr, wenn man nicht spielen möchte?

    > Nicht umsonst hat Intel das Projekt als Grafikkarte auf Eis gelegt.

    aber nicht das projekt an sich. dann wäre es wirklich ein reinfall gewesen. aber selbst wenn, intel kann das finanziell recht locker verkraften.

  1. Thema
  1. 1
  2. 2

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. AWEK microdata GmbH, Bielefeld
  2. Ledermann GmbH & Co. KG, Horb am Neckar
  3. Franz Binder GmbH + Co. Elektrische Bauelemente KG, Neckarsulm
  4. Hornbach-Baumarkt-AG, Bornheim (Pfalz)

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Spiele-Angebote
  1. (-63%) 16,99€
  2. 3,99€
  3. 4,99€


Haben wir etwas übersehen?

E-Mail an news@golem.de


Vision 5 und Epos 2 im Hands on: Tolinos neue E-Book-Reader-Oberklasse ist gelungen
Vision 5 und Epos 2 im Hands on
Tolinos neue E-Book-Reader-Oberklasse ist gelungen

Die Tolino-Allianz bringt zwei neue E-Book-Reader der Oberklasse auf den Markt. Der Vision 5 hat ein 7 Zoll großes Display, beim besonders dünnen Epos 2 ist es ein 8-Zoll-Display. Es gibt typische Oberklasse-Ausstattung - und noch etwas mehr.
Ein Hands on von Ingo Pakalski

  1. Tolino Page 2 Günstiger E-Book-Reader erhält Displaybeleuchtung

Mädchen und IT: Fehler im System
Mädchen und IT
Fehler im System

Bis zu einem gewissen Alter sind Jungen und Mädchen gleichermaßen an Technik interessiert. Wenn es dann aber um die Berufswahl geht, entscheiden sich immer noch viel mehr junge Männer als Frauen für die IT. Ein wichtiger Grund dafür ist in der Schule zu suchen.
Von Valerie Lux

  1. IT an Schulen Intelligenter Stift zeichnet Handschrift von Schülern auf
  2. 5G Milliardenlücke beim Digitalpakt Schule droht
  3. Medienkompetenz Was, Ihr Kind kann nicht programmieren?

Linux-Kernel: Selbst Google ist unfähig, Android zu pflegen
Linux-Kernel
Selbst Google ist unfähig, Android zu pflegen

Bisher gilt Google als positive Ausnahme von der schlechten Update-Politik im Android-Ökosystem. Doch eine aktuelle Sicherheitslücke zeigt, dass auch Google die Updates nicht im Griff hat. Das ist selbst verschuldet und könnte vermieden werden.
Ein IMHO von Sebastian Grüner

  1. Kernel Linux bekommt Unterstützung für USB 4
  2. Kernel Vorschau auf Linux 5.4 bringt viele Security-Funktionen
  3. Linux Lockdown-Patches im Kernel aufgenommen

  1. BDI: Industrie für schnelle 5G-Errichtung statt Vertrauensschwüre
    BDI
    Industrie für schnelle 5G-Errichtung statt Vertrauensschwüre

    Die deutsche Industrie will keine Vertrauenswürdigkeitserklärung von den 5G-Ausrüstern einholen müssen. Diese Erklärungen seien wirkungslos, gefragt sei dagegen Cyber-Resilienz.

  2. Watch Parties: Twitch ermöglicht Streamern Filmabende mit Followern
    Watch Parties
    Twitch ermöglicht Streamern Filmabende mit Followern

    Gemeinsam im kleinen oder großen Kreis einen Spiefilm oder eine TV-Serie per Streaming anschauen: Das können Influencer künftig auf Twitch - vorerst allerdings nur in den USA.

  3. Smartspeaker: Belauschen mit Alexa- und Google-Home-Apps
    Smartspeaker
    Belauschen mit Alexa- und Google-Home-Apps

    Mit verschiedenen Tricks gelang es Sicherheitsforschern, Apps für Google Home und Amazons Alexa zu erzeugen, die Nutzer belauschen oder Phishingangriffe durchführen. Die Apps überstanden den Review-Prozess von Google und Amazon.


  1. 18:53

  2. 17:38

  3. 17:23

  4. 16:54

  5. 16:39

  6. 15:47

  7. 15:00

  8. 13:27