Prof_Matze - 33
Champion
(offline)
Dabei seit 03.2006
6894
Beiträge
|
|
Geschrieben am: 30.03.2010 um 16:14 Uhr
|
|
...Da fragt sich, was Nvidia das halbe Jahr lang getrieben hat? :)
Das einzige Pro-Argument ist die bessere Tesselation... und die duerfte mit dem naechsten ATI-Treiber zu verbessern sein.
Mfg
Leider wird fehlendes Wissen missverständlicherweise (zu) oft durch blinden Schreibwahn ersetzt...
|
|
bredator - 41
Champion
(offline)
Dabei seit 03.2008
5319
Beiträge
|
|
Geschrieben am: 13.04.2010 um 18:03 Uhr
|
|
Also ich bin einfach weiter der Meinung, dass die Fermi-GPUs für den Heimanwender ein einziger Rohrkrepierer werden. Ich soll seit knapp 2 Wochen für einen Bekannten eine GTX480 erwerben (obwohl ich ihn gewarnt hatte, wollte er nicht hören...). Und was ist mit der riesigen Verfügbarkeit nun? Ich erhalte einfach keine der Grafikkarten...
Vielleicht lässt er sich ja noch umstimmen, wenn ich ihm die beschissene Verfügbarkeit näher erläutere. Aber es ist schon ein Armutszeugnis für NVidia was sie bei Fermi alles versprechen und es dann nicht halten können. Angefangen bei der angeblich überragenden Leistung (die nur minimal besser als bei ATI ausgefallen ist) über den Erscheinungstermin (der sich um Monate verzögert hatte) bis hin zu der großflächigen Verfügbarkeit (wie gesagt, ich versuche seit 2 Wochen eine Karte zu bekommen). Der Schuss wird wohl nach hinten losgehen, denn ich glaube nicht, dass ATI in der Zwischenzeit sich nur ausgeruht hat.
Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.
|
|
BlackRock - 48
Experte
(offline)
Dabei seit 02.2007
1148
Beiträge
|
|
Geschrieben am: 13.04.2010 um 20:45 Uhr
|
|
Ich plane mir eine GTX470 oder 460 (wenn verfügbar) zuzulegen. Die Spielebenchmarks sind mir ziemlich egal, ich will CUDA bzw OpenCL darauf Programmieren, und in dieser Hinsicht ist NVIDIA im Moment ATI einen guten Schritt voraus.
"It is more important that innocence be protected than it is that guilt be punished." (John Adams)
|
|
bredator - 41
Champion
(offline)
Dabei seit 03.2008
5319
Beiträge
|
|
Geschrieben am: 13.04.2010 um 21:06 Uhr
|
|
Hierfür würde ich aber eher ein Quatro oder Teslamodell nutzen. Die kleineren davon sind auch nicht die übertrieben teuren, leisten in dem Bereich aber genug.
Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.
|
|
BlackRock - 48
Experte
(offline)
Dabei seit 02.2007
1148
Beiträge
|
Geschrieben am: 13.04.2010 um 21:24 Uhr
Zuletzt editiert am: 13.04.2010 um 21:26 Uhr
|
|
Tesla und Quadro bieten von der Rechenleistung auch nicht mehr als eine GeForce auf gleichem Chip. Der Hauptunterschied für CUDA etc. ist wieviel Speicher auf der Karte ist, und das ist mir den dicken Aufpreis definitiv nicht wert.
Eine GTX 260 hat mehr Recheneinheiten als eine FX3800, kostet aber nur ein Viertel.
"It is more important that innocence be protected than it is that guilt be punished." (John Adams)
|
|
Applesaft
Halbprofi
(offline)
Dabei seit 10.2009
372
Beiträge
|
Geschrieben am: 19.04.2010 um 18:41 Uhr
Zuletzt editiert am: 19.04.2010 um 18:42 Uhr
|
|
Naja gut, da hat ATi dieses Jahr halt einfach besser und vorallem schneller gearbeitet.
Wenn ich das so sehe würde ich mir wohl momentan auch eher eine ATI 5er holen wobei man auch nicht ganz ausser Acht lassen darf, dass NVidia das Physix bietet- was mittlwerweile ja doch irgendwie in jedem aktuellen Shooter zu finden ist.
Dieser Spass kostet dann eben 80 Euro mehr als die vergleichbare ATI ^° + Strom- Mehrkosten für 2 Jahre = 100 Euro (oder so).
|
|
bredator - 41
Champion
(offline)
Dabei seit 03.2008
5319
Beiträge
|
|
Geschrieben am: 19.04.2010 um 20:02 Uhr
|
|
Zitat von Applesaft: Naja gut, da hat ATi dieses Jahr halt einfach besser und vorallem schneller gearbeitet.
Wenn ich das so sehe würde ich mir wohl momentan auch eher eine ATI 5er holen wobei man auch nicht ganz ausser Acht lassen darf, dass NVidia das Physix bietet- was mittlwerweile ja doch irgendwie in jedem aktuellen Shooter zu finden ist.
Dieser Spass kostet dann eben 80 Euro mehr als die vergleichbare ATI ^° + Strom- Mehrkosten für 2 Jahre = 100 Euro (oder so).
Na ja, ich glaube aber, dass PhysX letztlich kein Erfolg vergönnt ist. Es war noch nie einer Firma von Vorteil, wenn sie ihre Technologie für sich gebunkert hat. So pflegen Intel und AMD schon seit vielen Jahren Technologieaustausch, damit die Prozessoren weitgehend kompatibel zueinander sind und bleiben. Daher schätze ich, dass NVidia sich da nur selbst ins Knie schießt, wenn sie weiter da ihr eigenes Süppchen kochen wollen.
Zudem ist PhysiX für mich nicht wirklich relevant. Die meisten Spiele unterstützen alternativ das Berechnen durch die CPU. Zudem sehen die PhysiX-generierten Physikeffekte meist nicht oder nur wenig besser aus, als CPU-berechnete. Von daher also noch lange kein Grund, deshalb die Kaufentscheidung zugunsten von NVidia ausfallen zu lassen.
Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.
|
|