ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
@Tekpoint
Ist wohl anzunehmen wissen tut das wohl noch keiner.
NV rückt da noch nichts raus.
 
Zuletzt bearbeitet:
GTX 480 is faster than HD 5870 but only in some situations.
Jetzt hats Fud auch geschnallt das da nich viel zu erwarten ist.
Da hat charly wohl noch untertrieben mit seine Unkerei.:D
 
Zuletzt bearbeitet:
Was ich mich aber frage, ist was es den Leakern denn bringt?
Letzendlich riskieren sie nur ihren Arbeitsplatz für eventuell ein bisschen Ruhm oder das bisschen Geld von den Redaktionen, was sie bekommen.
 
Ja kam wohl von Zotak die wollten wohl keine teuren Fermis haben die sie dann nicht loswerden:D
 
Fetter Fettsack schrieb:
Für den heise Leak sollen angeblich schon Köpfe gerollt sein.

Finde ich sehr schade, aber leider haben sie nicht zu unrecht ihren Job verloren...
Naja, aber es ist ja auch nicht auszuhalten, das Nvidia einem ander langen Leine verhungern lässt...

Schade das die Graka anscheinend nicht gut genug retuschiert wurde :(
 
Laut einem Gast-User im 3DC sollen die nVidia'schen Boardpartner alles andere als zufrieden sein:

Zitat von Gast

Aber zum Thema ... ich weiß wer Zotac ist und die Sache ist durchaus ernster als ein einzelner Mitarbeiter der sich wichtig machen wollte.
Aus dem heise Artikel:
Zitat:
Zwar zeigten sich einige Partner bereits zuversichtlich, dass durchaus ausreichende Stückzahlen der neuen Karten ab dem 29. März vorrätig sein werden. Sorgen bereitet ihnen jedoch das Preis-Leistungs-Verhältnis.
Man beachte den Plural! Was das steht heißt nix anderes als: so teuer, dass die Dinger keiner haben will. Und genau so wurde das auch von mehreren Herstellern an ct kommuniziert und die mussten sich kein Bein ausreißen um an die Benches zu kommen. Die Hersteller sind mehr als angepisst von nvidias Verhalten, in ganz vielen Belangen. Das fängt bei ihrer Unfähigkeit den Chip so zu designen dass er rechtzeitig vom Band fällt an und hört bei ihrer Kommunikationspolitik nicht auf. Charlie spinnt im doppelten Wortsinn, aber nvidia macht es ihm leider auch wirklich leicht.


http://85.25.184.234/vbulletin/showpost.php?p=7881900&postcount=14059

Wenn man dem Glauben schenken darf, dann wäre dies ein weiteres Indiz für eine nicht stattfindende Preisschlacht.
 
Die:
Jocotty schrieb:
Volker schrieb:
total übertrieben, denn 50% Aufpreis für gleiche Leistung zahlt keiner.
Oh doch, da gab es schon Argumente wie "besseres Gesamtpaket" usw. (ich möchte keine neue Diskussion lostreten...)

z.B.

Obwohl natürlich die Frage ist ob es tatsächlich ein potenzieller Kunde oder ob das einfach "Gurilla-Marketing" ist.

Weil der postet immer sowas und tut so als wären die extrem begehrenswert und indirekt anderen rät so schnell wie möglich zu bestellen....
 
Zuletzt bearbeitet:
ATSbozz schrieb:
Nun ja von einer ganz neuer Architektur erwarte ich schon ein bisschen mehr als die 10%
Problem bei den Karten ist, dass die vorgesehenen Taktraten nicht erreicht werden (entweder zu heiß bzw. zu hoher Stromverbrauch oder prozessbedingt). Dort liegen die fehlenden 10-20% Leistung gegenüber den AMD-Karten. Allerdings wird vermutet, dass Nvidia schnell einen Refresh bringt, der diese Probleme beheben soll.

EDIT:

Der Bericht >>HIER<< zur Einführung/Vorstellung des R600 hat viele Parallelen zur diesjährigen CeBit, allerdings mit Nvidia als Hauptperson :)
 
Zuletzt bearbeitet:
Orbmu2k schrieb:

Wie Motkachler schon angemerkt hat, wird der Benchmark ohne Antialiasing gefahren. Wäre ich von meiner Hardware überzeugt, ich würde alles reinknallen was möglich ist, und explizit darauf hinweisen.

Ebenso sollte man in dem Video ab ~3:40 zuhören;
Er präsentiert 3D Vision Surround auf einem recht rauschenden System. Wenigstens erwähnt er das dies 2 GTX 480 rendern.
Er sagt:
"this is a new technology its available (to) GTX480"

Nun denke man an die CES zurück, wo Avatar in 3D Vision Surround mit 2 GTX 285 gezeigt wurde.

Es überhaupt eine "Technologie" zu nennen finde ich schon ein wenig ... oversized. Ich bezweifel das dies nicht vorher schon möglich war; mit 2 Grafikkarten 3 Monitore ansprechen, und ein Spiel darüber spielen sollte ja nicht unmöglich gewesen sein. Und darauf 3D Vision Surround zu aktivieren dürfte höchstens noch ein Treibertweak gewesen sein.

Virales Marketing at its best, since .. too long.

Soviel zu den suggerierten 40-60% + Performance im letzten Jahr. Auch weiss ich noch wie hier User Seiten damit gefüllt haben, Eyefinity als den "verzweifelten" Versuch etwas gegen PhysX im petto zu haben, bezeichneten.

So langsam ist vorbei mit kleckern, es wird Zeit zu klotzen. Eigentlich hatte ich vor die Karte um ~200€ mit dem besten Preis/Leistungsverhältnis zu kaufen; da ich aber meinen Dual Core Pentium alsbald nicht ersetzen werde, und eine 5850 da total fehl im Platz wäre, kommt wohl eher ne 5770 in Frage. Leider darf ich hier keine DX11 fähige Hardware so schnell in Konkurenz erwarten. Schade drumm.
 
Was macht es denn für einen Sinn einen Tesselationbenchmark ohne mind. 4xAA zu rendern.
Einserseits könnte das rendern ohne 4xAA dazu gedacht sein, die Performance zu verschleiern, allerdings sieht es eher für mich aus, als ob eine GTX480 ernsthafte Probleme hat an einer HD5870 vorbeizuziehen.
 
@milamber!

erm ist doch allgemein bekannt das man für vision surround 2 karten im sli braucht ... nv karten können nur 2 ausgänge pro karte ansteuern... als logischer schluss bleibt da nurnoch:
3 monitore=2karten

nur als anmerkung

edit: ja es ist reine software ... das auf den 2 gtx285 war daher nciht der offizielle treiber sondern ein von nv gemoddeter
 
Mir ist bekannt ... das dies bekannt ist. Es ging vielmehr um die explizite Erwähnung, das dies ein "Feature" der GTX 400er wäre, und die Bezeichnung als "Technologie", etwas neuartiges, was es eigentlich nicht ist.

Und nochmal die Frage: War dies vielleicht sogar schon vorher möglich?
Ist hier wer (gern mehrere) mit 2 Nvidia Karten, 3 Monitoren, und einer 3D Vision Brille? Konnte man vorher schon 3D Vision bei 3 Monitoren aktivieren?
Zu Bedenken: Wo sowohl 3D als auch Triple Head eher was für High End Kunden ist, die viel Geld investieren möchten und können, ist mir der Sinn von 3D in Surround schwer vorstellbar; Triple Head ist doch aus dem Grund so prall, weil es das Sichtfeld erweitert, ein "Mittendrinngefühl" herstellt, 3D hingegen weil es die Anwendung für den Spieler in einer dreidimensionalen Ansicht darstellt, ebenfalls ein "Mittendrinngefühl". Aber die Kombination, wo mit der Brille das Sichtfeld eingeschränkt ist - im praktischen sehe ich darin keinen Vorteil, eher einen Nachteil.
 
Warme Luft sag ich da nur :P Wer günstig eine HD 5850/5870 gekauft hat. Damals.
Der muss sich keine Sorgen machen,wegen einem Fehlkauf.

Aber erstmal abwarten bis Computerbase Tests da hat.
 
lange frage, kurze antwort:

ja es war möglich

aber (wie immer gibt es ein aber)

es gibt so etwas wie ne horizontgrenze ab wann es sinn macht. die 200er reihe war nah an der grenze was die leistung anging, der gf100 (wie er geplant war) war jenseits dieser grenze, ABER vor dem großen "3d ein muss" und "eyefinity wie geil" gehype, war es unnötig ... so ungefähr halt wie jetzt auch ... oder wie eyefinity ... sind für mich alles "schön das es geht aber who cares" dinge ...

nicht falsch verstehen, 3d ist toll (ich nutz es seit der gf3 ab und an mal) aber die richtung in die es mMn gehen sollte ist nicht 3 oder 6 oder 9 oder mehr bildschirme und dann mit na shutterbrille da rumsitzen, sonder eher in richtung der zeiss lösung, mit den 2 monitoren in der schicken brille, so das man gleich 3d sieht ... die kann man dann auch grade an seine ps3 hängen um nen 3d film anzuschauen ...

von meiner grafikkarte erwart ich mir da mehr dinge wie ... gute grafik ... evtl noch gute physik ... wenn ich mehr als 2 monitore brauch ... hey dann ist eyefinity net schlecht, aber aus zockersicht ... total unnötig(und ich persönlich sag ganz ehrlich: die zocker die meinen iwas im windows rödeln zu müssen, ein spiel aufzuhaben und dann noch nen bot für ein spiel laufen lassen wollen ... die will ICH nicht noch unterstützen ... ich HASSE bot user ^^)... oder gar die nv lösung bei der ich dann gleich 2 karten brauch ... (wobei es tatsache sit, das man egal ob nv oder ati für 3 monite auf full hd + 3d 2 karten braucht)


erm ja genug abgeschweift ... sorry
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben