ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
@Neo_Xsendra:
So lange Spiele unter dem Gaming Envolved Titel nicht mit AMD Exklusiven Features aufwarten, welche Konkurenzprodukte ausschließen, eigene Modifikationen hinein programmiert wurden welche im Nebeneffekt Konkurenzprodukte in ihrer Performance beeinträchtigen, solange nicht mit fadenscheinigen Begründungen Renderpfade entfernt werden, weil diese durch AMD nicht unterstützt werden gibt es überhaupt keinen Grund sich wo "rauszuwinden".
Es würde mich auch stark wundern, wenn dies einmal der Fall sein wird, wenn ich mir das GE Credo so durchlese, zumal es auch keine proprietären Lösungen von AMD gibt, die sie mit Sponsoring versuchen durchzudrücken. Genau darum geht es ja in Gaming Evolved; die Nutzung offener bzw. freier Standards, die Implementierung und Nutzung neuer Techniken

Aber es wundert mich gar nicht; hatten sie kein vergleichbares Programm, war es falsch, schlechtes Marketing und eine sträfliche Vernachlässigung. Haben sie eines, ist es auch falsch, nur ein 'billiger' Abklatsch, ein Abkupfern.

Jeden Tag der selbe Unsinn, den man auf beiden Seiten lesen muß.

Wo aber CB hier seit ner Woche anscheinend eine AMD Sendepause eingelegt hat, wird eh niemand was von Gaming Evolved Erfahren.

@Motkachler; Miteinander geredet? Was bringen GPU PhysX Effekte auf der CPU? Schau dir die anderen Titel doch an - obs funktioniert oder Peng, macht überhaupt keinen Unterschied.
Nicht mal die Lolli Effekte von Mirrors Edge lassen sich von ner CPU Berechnen.
 
Zuletzt bearbeitet:
Wird man bei Metro sehen was CPU Phys X da bringt soll ja da funktionieren. Wäre jedenfalls auch für die Spielehersteller von Vorteil wenn NV aufhören würde mit ihren paraktiken die Du beschreibst. Und ATI erst garnicht anfängt damit.
Das mit der sendepause und Newspolitik wundert einige.
https://www.computerbase.de/forum/threads/713060/
 
Zuletzt bearbeitet:
So ein Kommentar von dir, dass 450€ ok sind hab ich auch erwartet :evillol:

Also scheint der Preis so ziemlich fest zu stehen, denn wenn sowas von einer Seite kommt die eher Nvidia-Pro ist...
Also glaube ich, dass meine ursprünglichen Vermutungen stimmen und die GTX470 nicht für unter 400€ zu haben sein wird.
Interessant zu beobachten wird sein, ob auf den OVP Preis noch der "Knappheitszuschlag" draufkommt...
 
Zuletzt bearbeitet:
@Lübke:
Dann hast du Avatar (zum Glück) nicht auf der CeBit in 3D angezockt.
Mal abgesehen davon, dass die Grafik und Spielewelt recht künstlich wirkt sind auch die 3D Effekte nicht besonders gut umgesetzt gewesen.
Und es war das erste Mal, dass ich 3D als anstrengend für Augen und Kopf wahrgenommen habe.
Es war einfach nicht gut umgesetzt. Das es besser geht zeigte NfS Shift, das aber auch nicht grenzenlos begeistern konnte.
Dort waren die 3D-Effekte teilweise etwas "künstlich", aber sonst ganz nett gemacht.
(Das Auto kam etwas nach vorne raus, was künstlich aussah. Dafür war der Tiefeneffekt nicht so gut gegeben, weil Tiefenunschärfe nicht eingesetzt wurde. Klar, man muss ja auch sehen wo es hingeht... Für ein nachgeschobenes Feature war es ganz nett, aber es gab keine grenzenlose Begeisterung.)
Die Frage ist halt wie nah 3D Vision Surround mit perfekter Implementierung an das Kino-Erlebnis drankommt.

So wie es aktuell zeigt ist es jedenfalls nichts für mich.

Grüße vom:
Jokener

Edit zu den Preisen:
Sooo abwegig sind die gar nicht, aber man muss halt gucken wie viel die 5870 dann fällt.
Aktuell werden von den ATI's fast so viele verkauft wie produziert werden, da fällt der Preis noch nicht.
Aber wenn AMD weiterhin vorne bleiben will, dann können sie nV ganz schnell über den Preis ärgern.
Denn die ATI's sind ja immerhin deutlich günstiger zu bauen. Könnte mir gut vorstellen, dass die recht zügig gegen 320€ gehen werden.
Und die 5850 hat auch noch Luft. Mindestens 220€ sind da zeitnah zu erwarten. Mal gucken ob ich mir dann eine gönne, oder ob ich auf die 2GB-Karten warte.
 
Zuletzt bearbeitet:
450 Euro...
Na, das klingt schon realistischer, als das was vorher kolportiert wurde. Nach der Cebit kamen mit den Fotos immer mehr infos, die auch irgendwie glaubwürdig waren. (Alles davor war irgendwie nur Müll, bzw. reine Spekulation, ob letzten Endes zutreffend oder nicht, ändert nichts am Spekulationscharakter.)

Wobei ich persönlich auch eher auf den G104-Chip gespannt bin, auf die wir aber noch länger warten müssen. Vielleicht schafft der ja die aktuelle Lücke zwischen HD5770 und HD5850 zu schließen. Die HD5830 ist einfach nicht gelungen zum angebotenen Preis.
 
ich wünsche den Nvidia Only Partnern viel Glück für die finanziellen Bilanzen...


Vielleicht hätte sie GTX285 und kleiner doch in Kleinserien weiter produzieren sollen, denn so schlecht haben die sich anscheinend nicht verkauft trotz HD5XXX Serie...
Jedenfalls bis Fermi ableger die Lücker zu 400€ schließen können...
 
Schon klar...
Aber wo der Film "bunt und fantastisch" ist, da ist das Spiel "etwas farbig und oh... ein Plastiktierchen...".
Den Film fand ich optisch sehr geil, das Spiel kommt da nichtmal in irgendeinem Ansatz dran.
Schade eigentlich, aber so macht das Spiel zum Film wirklich keine gute Figur.

Warum das bei Spielen so schwer sein soll will mir allerdings nicht recht einleuchten.
Da ist immerhin schon alles in 3D vorhanden, man muss es nur noch entsprechend ausgeben und etwas modden.
Beim Film war ja das Problem, das die Kameras das bisher einfach nicht hergegeben haben (und die Technik in den Kino's auch nicht).

ATI wird da mit der 6k-Reihe bestimmt gleichziehen.

Grüße vom:
Jokener
 
Ähm, die 3D Technik soll mit irgendeinem Catalyst 10 Treiber kommen oder ist schon gekommen und zwar für die HD5XXX Serie...
 
So noch 11 tage dann kann man dieses ''Monsterthema'' beenden :D
 
Das muss mir entgangen sein...

So wie sich die Technik aktuell darstellt ist mir Eyefinity sowieso erstmal lieber.
Da bekommt man echten Mehrwert für einigermaßen kleines Geld.
(es muss ja nicht gleich 6x30" sein)

Grüße vom:
Jokener
 
So wie sich die Technik aktuell darstellt ist mir Eyefinity sowieso erstmal lieber.
Da bekommt man echten Mehrwert für einigermaßen kleines Geld.
(es muss ja nicht gleich 6x30" sein)

Sehe ich auch so, zumal man für die nVidia-Lösung ja auch gleich zwei Karten GTX 4xx benötigt - oder ist das auch schon wieder obsolet!?!
 
@kaktus1337: nix da, es geht direkt mit hd6800 weiter, weil nvidia so lange rumgetrödelt hat, das ati bald schon wieder vor seinem nächsten großen wurf steht ;)

@Jokener: was hat denn eyefinity damit zu tun? das bringt mir in meinem wohnzimmer auf einem fernseher jedenfalls gar nix ;)

@Jocotty: hast du bitte mal nen link dazu? hoffentlich geht das auch mit meiner 4650 ;)

@Lars_SHG: ich glaube was du meinst, ist multi-monitor auf nvidia als gegenpart zu eyefinity. ja, meines wissens geht das nur mit mehr als einer karte.
 
silent-efficiency schrieb:
So toll ist Eyefinity auch nicht. Hab es mir angeschaut.... 3D ist besser ...

3D und Eyefinity sind zwei völlig unterschiedliche Geschichten. Da passt ein "besser" nicht wirklich rein, vor allem nicht als allgemeingültige Aussage, wenn überhaupt nur als persönliche Präferenz.
3D ist anders, als Eyefinity, und beides hat seine Vorüge und Nachteile.
3D auf Triple Head hingegen kann nicht der Hit sein, bei sichtfeldbegrenzenden Brillen, vor allem bei der Shuttertechnik.
 
Damit das 3D vernünftig wirkt braucht man auch drei Monitore, daran ändert sich also schonmal nichts.
(NFS Shift kam auf der CeBit erst mit den drei Projektoren wirklich gut, wobei die auch nur 3x30" an die Wand geworfen haben. Bei 3m Abstand entspricht das schon fast 3x22" oder 3x24" auf dem Schreibtisch mit etwas Abstand...)

Mal abgesehen davon: Ich habe sowieso schon zwei Monitore auf dem Schreibtisch. Der dritte machts dann auch nicht mehr.
(Und ja, die zwei brauche ich zum arbeiten, der Dritte kommt zum zocken...)

Eyefinity erfordert jedenfalls nur sehr wenig Arbeit bei der Implementierung.
Irgendein Entwickler meinte mal, für Eyefinity hätten sie einen Tag gebraucht.
Plus noch ein bisschen Extra-Arbeit beim Troubleshooting oder testen vielleicht.
3D ist da doch deutlich aufwendiger. Wenn es gut gemacht ist kann es sich lohnen, nur hab ich bis jetzt noch kein Game mit WOW-Faktor gesehen...

Limitiert wird Eyefinity jedenfalls eher durch die Performance der Graka wenn man 3x24" aufstellt...
Aber die beiden Extra-Monitore bringen mir persönlich mehr als der Sprung von 8x auf 16xAA oder AF.

Meine Meinung...

Grüße vom:
Jokener
 
milamber! schrieb:
3D und Eyefinity sind zwei völlig unterschiedliche Geschichten. ...., wenn überhaupt nur als persönliche Präferenz.

Richtig, ich war auch nicht der jenige, der Eyefinity erwähnt hat, als es um 3D ging, ich hab nur auf die Aussage eines anderen reagiert ;)
Aber wenn wir schon vergleichen, so ist laut meiner persönliches Präferenz 3D besser.
Mir schmecken auch Birnen besser als Äpfel, auch persönliche Präferenz.

Jokener schrieb:
Damit das 3D vernünftig wirkt braucht man auch drei Monitore, daran ändert sich also schonmal nichts.
Wie kommst du jetzt darauf? Das einzige was man braucht ist ein großer Monitor. Bei kleinen Monitoren wirkt das geschehen wie im Aquarium, da nützt es dir auch nichts drei Aquarien nebeneinander hinzustellen. Für 3D braucht man nach meiner persönlichen Erfahrung einfach nur einen großen Monitor.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben