Abo
  1. Foren
  2. Kommentare
  3. Sonstiges
  4. Alle Kommentare zum Artikel
  5. › Turing-Grafikkarte: Nvidia stellt…

FullHD statt 4k/WQHD

  1. Thema

Neues Thema Ansicht wechseln


  1. FullHD statt 4k/WQHD

    Autor: ternot 21.08.18 - 09:28

    Einfach abwarten, die Grafikkarten gibt es irgendwann günstiger.

    Wobei ich mit meiner Grafikkarte von 2015 noch alles spielen kann, klar, nicht höchste Details usw., aber das Teil hat damals auch nur 200¤ gekostet.

    Wenn ein Spiel nicht richtig läuft in akzeptablen Details, dann stell ich die Auflösung halt etwas runter, fertig aus. Sieht nach wie vor in meinen Augen auch noch gut aus. Wenn ich dann testweiße auf höchste Details usw. stelle ruckelt es natürlich, sieht auch einen Ticken toller aus, aber nicht so viel dass ich die aktuell verbaute Grafikkarte auf den Müll werfen würde und nochmal 500¤ für eine neue ausgeben würde. Für die 2-10 Stunden Spiele im Monat reicht so eine einfache Karte allemal.

    Wenn ich das mit der Grafik von 2004 etc. vergleiche, also den Jahren als Far Cry usw. auf den Markt kamen kann man sich heutzutage nicht mehr beschweren. Und dank Keyshops bekommt man die Spiele bereits weniger als ein halbes Jahr nach Release schon oftmals für weniger als 10¤. Also ich kann mich nicht über die Entwicklung beklagen, bei Mist ala DLC usw. halt einfach nicht mitmachen...

  2. Re: FullHD statt 4k/WQHD

    Autor: .mojo 21.08.18 - 09:55

    non native Auflösung sieht auf LCD/TFT etc einfach mist aus. Auf Röhre war alles gut, aber mit den aktuellen Monitor technologien versuche ich die auflösung wo es nur geht nativ zu lassen. Dann lieber weniger details.



    1 mal bearbeitet, zuletzt am 21.08.18 09:56 durch .mojo.

  3. Re: FullHD statt 4k/WQHD

    Autor: Hotohori 21.08.18 - 16:57

    Gerade 4K hat mir gezeigt, dass das nur an der höhe der nativen Auflösung hängt. Je höher die Pixeldichte, desto besser sehen nicht native Auflösungen darauf aus. Ein 4K Monitor hat bereits eine Bildschärfe, dass es etliche nicht native Auflösungen gibt, die dennoch fast genauso scharf aussehen, fällt da kaum noch auf.

    Bei einem 8K Monitor würde man jede Auflösung nutzen können, ohne das einem eine Unschärfe auffällt, die käme höchstens durch "schlechte" AntiAliasing Modi zustande.

  4. Re: FullHD statt 4k/WQHD

    Autor: ternot 22.08.18 - 07:37

    .mojo schrieb:
    --------------------------------------------------------------------------------
    > non native Auflösung sieht auf LCD/TFT etc einfach mist aus. Auf Röhre war
    > alles gut, aber mit den aktuellen Monitor technologien versuche ich die
    > auflösung wo es nur geht nativ zu lassen. Dann lieber weniger details.


    Da geb ich dir Recht, optimal ist es nicht, aber FullHD auf WQHD ist noch okay bei meinem Dell hier, 720p sehen dann schon sehr mäßig aus. Auf meinem LG den ich zuvor hatte sah das tatsächlich nur nach Matsch aus. Zudem kann man bei Nvidia das Bild auch einfach unskaliert ausgeben, nur kleiner dann.

    Irgendein Spiel hatte ich das auf nativ selbst mit niedrigen Details geruckelt hat, auf FullHD mit mittleren bis hohen Details nicht. Versteh wer will.

    Bin ja schon gespannt wie es dann mit dem neuen 4k Fernseher ausschaut, ob der FullHD sauber hochskaliert bekommt, ist ja eigentlich relativ simpel, die Farbinformation von einem Pixel gilt dann halt für vier Pixel...

  5. Re: FullHD statt 4k/WQHD

    Autor: ternot 22.08.18 - 08:12

    Interssant wäre ja ein spezieller Modus seitens Grafikkarte bei der die Pixel entsprechend skaliert übergeben werden.

    So könnte man z.B. bei 4k auch 2-3 Pixel immer zusammenfassen. Nicht nur 4 wie bei einer ganz stumpfen Skalierung.

    Oder je nach Bildbereich die Auflösung anpassen, ein Teil des Monitors bekommt echte 4k, der Rest nur FullHD das entsprechend sakliert wurde.

  6. Re: FullHD statt 4k/WQHD

    Autor: cran 22.08.18 - 14:30

    Hotohori schrieb:

    > Bei einem 8K Monitor würde man jede Auflösung nutzen können, ohne das einem
    > eine Unschärfe auffällt, die käme höchstens durch "schlechte" AntiAliasing
    > Modi zustande.

    Braucht man bei 8k überhaupt noch Antialiasing?

  7. Re: FullHD statt 4k/WQHD

    Autor: FreiGeistler 22.08.18 - 17:52

    cran schrieb:
    --------------------------------------------------------------------------------
    > Hotohori schrieb:
    >
    > > Bei einem 8K Monitor würde man jede Auflösung nutzen können, ohne das
    > einem
    > > eine Unschärfe auffällt, die käme höchstens durch "schlechte"
    > AntiAliasing
    > > Modi zustande.
    >
    > Braucht man bei 8k überhaupt noch Antialiasing?

    Wenn du dir einen 8K-Bildschirm und die benötigten 2 Grafikkarten leistest, hast du doch sicher das Kleingeld für eine leistungsfähige CPU?

  8. Re: FullHD statt 4k/WQHD

    Autor: abufrejoval 22.08.18 - 19:58

    Hotohori schrieb:
    --------------------------------------------------------------------------------
    > Gerade 4K hat mir gezeigt, dass das nur an der höhe der nativen Auflösung
    > hängt. Je höher die Pixeldichte, desto besser sehen nicht native
    > Auflösungen darauf aus. Ein 4K Monitor hat bereits eine Bildschärfe, dass
    > es etliche nicht native Auflösungen gibt, die dennoch fast genauso scharf
    > aussehen, fällt da kaum noch auf.
    >
    > Bei einem 8K Monitor würde man jede Auflösung nutzen können, ohne das einem
    > eine Unschärfe auffällt, die käme höchstens durch "schlechte" AntiAliasing
    > Modi zustande.

    Das hängt alles von der Größe ab bzw. Betrachtungsabstand ab.

    Ich habe ein 15.4" Laptop von der Firma mit einem 4K Display und kann dort mit 4K einfach nichts anfangen: Ich lasse es nur mit 1920x1080 laufen, denn sonst reicht die GTX 1070 eh für nichts.

    Und ich habe mit einem 43" 4K Monitor diverse 22-24" FullHD Monitore abgelöst: Da merkt man schon einen Unterschied, gleichzeitig kann man da nicht überall gleich scharf hinschauen (wäre was für foveated rendering, wenn der Monitor denn eye tracking bieten könnte). Dort ist meine GTX 1080ti bei 4K überfordert und ich muß auf 3K heruntergehen, merke aber noch eine deutliche Verbesserung gegenüber FullHD.

    Für 8K auf einem 100" Monitor gibt es so bald wohl keinen Chip der das mit optimaler Qualität auf allen Pixeln schaffen würde, auch 7 oder 5nm werden da kaum helfen. Da braucht es echte Innovationen und natürlich echten Bedarf.

Neues Thema Ansicht wechseln


Um zu kommentieren, loggen Sie sich bitte ein oder registrieren Sie sich. Zum Login

Stellenmarkt
  1. über experteer GmbH, Bonn
  2. HiPP-Werk Georg Hipp OHG, Pfaffenhofen Raum Ingolstadt
  3. Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart
  4. MBDA Deutschland, Schrobenhausen

Golem pur
  • Golem.de ohne Werbung nutzen

Anzeige
Blu-ray-Angebote
  1. 5€ inkl. FSK-18-Versand
  2. (u. a. 3 Blu-rays für 15€, 2 Neuheiten für 15€)
  3. 5€ inkl. FSK-18-Versand


Haben wir etwas übersehen?

E-Mail an news@golem.de


Raspberry Pi: Spieglein, Spieglein, werde smart!
Raspberry Pi
Spieglein, Spieglein, werde smart!

Ein Spiegel, ein ausrangierter Monitor und ein Raspberry Pi sind die grundlegenden Bauteile, mit denen man sich selbst einen Smart Mirror basteln kann. Je nach Interesse können dort dann das Wetter, Fahrpläne, Nachrichten oder auch stimmungsvolle Bilder angezeigt werden.
Eine Anleitung von Christopher Bichl

  1. IoT mit LoRa und Raspberry Pi Die DNA des Internet der Dinge
  2. Bewegungssensor auswerten Mit Wackeln programmieren lernen
  3. Raspberry Pi Cam Babycam mit wenig Aufwand selbst bauen

Mac Mini mit eGPU im Test: Externe Grafik macht den Mini zum Pro
Mac Mini mit eGPU im Test
Externe Grafik macht den Mini zum Pro

Der Mac Mini mit Hexacore-CPU eignet sich zwar gut für Xcode. Wer eine GPU-Beschleunigung braucht, muss aber zum iMac (Pro) greifen - oder eine externe Grafikkarte anschließen. Per eGPU ausgerüstet wird der Mac Mini viel schneller und auch preislich kann sich das lohnen.
Ein Test von Marc Sauter

  1. Apple Mac Mini (Late 2018) im Test Tolles teures Teil - aber für wen?
  2. Apple Mac Mini wird grau und schnell
  3. Neue Produkte Apple will Mac Mini und Macbook Air neu auflegen

Android-Smartphone: 10 Jahre in die Vergangenheit in 5 Tagen
Android-Smartphone
10 Jahre in die Vergangenheit in 5 Tagen

Android ist erst zehn Jahre alt, doch die ersten Geräte damit sind schon Technikgeschichte. Wir haben uns mit einem Nexus One in die Zeit zurückversetzt, als Mobiltelefone noch Handys hießen und Nachrichten noch Bällchen zum Leuchten brachten.
Ein Erfahrungsbericht von Martin Wolf

  1. Android Q Google will den Zurück-Button abschaffen
  2. Sicherheitspatches Android lässt sich per PNG-Datei übernehmen
  3. Google Auf dem Weg zu reinen 64-Bit-Android-Apps

  1. Valve: Steam verabschiedet sich von Spielfilmen
    Valve
    Steam verabschiedet sich von Spielfilmen

    Das Onlineportal Steam will sich offenbar stärker auf Games fokussieren, der Verkauf von Spielfilmen wird aufgegeben. Gleichzeitig hat Valve im Rahmen der schon länger angekündigten Neugestaltung die überarbeitete Willkommensseite des Portals freigeschaltet.

  2. Star Wars: In Frankreich sind Lichtschwertduelle ein anerkannter Sport
    Star Wars
    In Frankreich sind Lichtschwertduelle ein anerkannter Sport

    In Frankreich duellieren sich Jedi-Meister und Sith-Lords im bereits zweiten Turnier. Lichtschwertduelle sind eine anerkannte Sportart der Landesfechtorganisation FFE. Spezielle Regeln motivieren zu kunstvollen Schwertbewegungen. Das Star-Wars-Setting soll Nachwuchs für den Schwertkampf begeistern.

  3. Großbritannien: Huawei zeigt 5G-Videoanruf zwischen drei Netzen
    Großbritannien
    Huawei zeigt 5G-Videoanruf zwischen drei Netzen

    Huawei zeigt sich unbeeindruckt von Ausschlussdrohungen auf dem europäischen 5G-Markt. Die drei großen britischen Netzbetreiber zeigen eine Videokonferenz im 5G-Netz mit der Technik des Ausrüsters.


  1. 11:48

  2. 11:35

  3. 11:14

  4. 11:00

  5. 10:45

  6. 10:21

  7. 09:00

  8. 07:59