-
Ja, ne, is klar...
Autor: Coppy Crop 05.12.08 - 10:38
"eine Cropfunktion ... ohne Auflösungsverluste"
Was an Bildinformation nicht da ist, ist nicht da, basta! Egal wie gut man interpoliert. Wieso verbreitet Golem so einen Schwachsinn? -
Re: Ja, ne, is klar...
Autor: Blork 05.12.08 - 10:40
Coppy Crop schrieb:
-------------------------------------------------------
> "eine Cropfunktion ... ohne Auflösungsverluste"
>
> Was an Bildinformation nicht da ist, ist nicht da,
> basta! Egal wie gut man interpoliert. Wieso
> verbreitet Golem so einen Schwachsinn?
Das ist ein IT-Forum für Profis. Und nur weil du es nicht vestehst heisst das nicht dass es nicht geht*
*Achtung Ironie -
Re: Ja, ne, is klar...
Autor: Coppy Crop 05.12.08 - 10:44
>
>
> *Achtung Ironie
Danke, ohne diesen Hinweis wäre ich gleich komplett ausgeflippt!
:) -
Re: Ja, ne, is klar...
Autor: fsdsfdfssdf 05.12.08 - 10:44
LOL
-
Re: Ja, ne, is klar...
Autor: Perpetuummobile-Erfinder 05.12.08 - 10:48
Coppy Crop schrieb:
-------------------------------------------------------
> "eine Cropfunktion ... ohne Auflösungsverluste"
>
> Was an Bildinformation nicht da ist, ist nicht da,
> basta! Egal wie gut man interpoliert. Wieso
> verbreitet Golem so einen Schwachsinn?
FULL ACK!
-
Re: Ja, ne, is klar...
Autor: GRO 05.12.08 - 11:32
Ihr seht das alle falsch!
Wenn ich in einem Bild einen Auschnitt wähle und als neues Bild speichere, im 2. Schritt aber erst versuche auf die Ursprungsgrösse zu skalieren, sieht es im Längen schlechter aus als mit dieser Software das gleiche in einem Rutsch zu machen. Das ist Mathematik, das ist zu komplex für euch alle. -
Re: Ja, ne, is klar...
Autor: Onanist 05.12.08 - 11:43
kann man problemlos mit der Bezierkurveninterpolation machen, völlig verlustfrei. Das kann Linux schon seit 100 Jahren!!!!!
-
Re: Ja, ne, is klar...
Autor: 1st1 05.12.08 - 11:50
Hallo Ornanist, ja, echt, das kann Linux schon seit hundert Jahren? Alles im Kernel drin? Achso, ja, der Dampfmaschinenangetriebene Zahnradcomputer von Charles Babbage, da lief ja schon Linux drauf... !!!
-
Re: Ja, ne, is klar...
Autor: GRO 05.12.08 - 11:52
Unser Mathe-Prof nannte sowas wie dich: Millimeterpisser. Sein Name fing mit H an und endete mit KEMPER!
-
Re: Ja, ne, is klar...
Autor: ColdZero 05.12.08 - 12:34
richtig ;)
-
Re: Ja, ne, is klar...
Autor: Onanist 05.12.08 - 12:34
HKEMPER?
P.S. Auf der Sonderschule heißen die Typen Lehrer, nicht Prof - alter Aufschneider. -
Sicher Dicker
Autor: Perpetuummobile-Erfinder 05.12.08 - 13:28
GRO schrieb:
-------------------------------------------------------
> Ihr seht das alle falsch!
>
> Wenn ich in einem Bild einen Auschnitt wähle und
> als neues Bild speichere, im 2. Schritt aber erst
> versuche auf die Ursprungsgrösse zu skalieren,
> sieht es im Längen schlechter aus als mit dieser
> Software das gleiche in einem Rutsch zu machen.
> Das ist Mathematik, das ist zu komplex für euch
> alle.
Klar, weil außer dir hier keiner Mathematik studiert haben kann,
oder wie kommst du darauf.
Und ich schätze jetzt mal trotzdem, du hast es nicht!
Und wenn das doch so toll geht, und man wirklich keine Verluste mehr hat, müssten dpch einfach alle Hersteller alte 6MP-Chips verbauen und die Auflösung mittels dieser genialen Methoden auf 12MP hochrechnen,
sieht ja dann angeblich genauso gut aus.
Kann man richtig Geld mit sparen, wenn man auf 24MP hochrechnet, braucht man keine 2900€ mehr für die SONY alpha 900 ausgeben!
-
Re: Ja, ne, is klar...
Autor: c & c 05.12.08 - 14:19
falsch
-
Re: Ja, ne, is klar...
Autor: c & c 05.12.08 - 14:22
nein.
es gibt bereits lange etliche programme, mit welchen man einen ausschnitt speichern kann ohne einen qualitätsverlust hinnehmen zu müssen.
die zweite funktion, die vergrösserung, ist wie bei allen eine interpolation wo bildinformationen erraten werden. wie gut man das macht hängt davon ab. aber trotzdem wird dies immer ein erraten bleiben.
diese software bietet also nicht, was andere nicht schon lange gut genug können. -
Re: Sicher Dicker
Autor: GRO 05.12.08 - 16:53
mein gott, was für eine spiessige Antwort
-
Versteht ihr das wirklich alle nicht?
Autor: ThadMiller 08.12.08 - 15:42
Wenn ich ein VGA-Bild habe (640x480), schneide mir ein QVGA (320x240) davon raus und die Software zieht das Bild automatisch wieder auf VGA hoch, habe ich keinerlei, null, non Auflösungsverlust. Es hat wieder 640x480.
Verstanden?
Von mehr war nicht die Rede...



