ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Ion schrieb:
Weiß jetzt nicht ob schon etwas dazu geschrieben wurde.
Aber ich hab gerade eine HD 5850 Rev. 2 entdeckt, mit Pcie 2.1
Hab ich irgendwas verpasst? Von Pcie 2.1 hab ich noch gar nichts mitbekommen, genauso wenig wie von einer Rev. 2 der 5850

PCI-E 3.0 ist doch auch schon verabschiedet, verdoppelt wieder die Datenraten.

Revision 2 von welcher Karte genau? Sapphire hat eine 5870 Vapor-X Rev 2. Bei der Karte ist das nicht mehr das ATI vorgegebene Platinenlayout sondern eine billigschrottentwicklung von Sapphire mit der man übertakten vergessen kann. Was dieser Schwachsinn soll und die Tatsache das die Kabel auch noch hinten angeschlossen werden und man noch mehr Platzprobleme bekommt weiß keiner.
 
Wattebaellchen schrieb:
PCI-E 3.0 ist doch auch schon verabschiedet, verdoppelt wieder die Datenraten.

Revision 2 von welcher Karte genau? Sapphire hat eine 5870 Vapor-X Rev 2. Bei der Karte ist das nicht mehr das ATI vorgegebene Platinenlayout sondern eine billigschrottentwicklung von Sapphire mit der man übertakten vergessen kann. Was dieser Schwachsinn soll und die Tatsache das die Kabel auch noch hinten angeschlossen werden und man noch mehr Platzprobleme bekommt weiß keiner.

Das ist eine Revision der 5850 von Sapphire (weg vom Referenzdesign), sieht so aus:

http://inkpool.de/images.php?url=http://static.actebis-images.com/productimages/I876093.jpg
 
@Wattebällchen
Ich habe mal gesucht, doch leider keine einzige Quelle für deine Behauptungen gefunden.
Hast du einen Link wo du das gelesen hast?
 
Nur in diesem Test steht nichts von dem was er behauptet.
  • Dort steht dass man nicht die Spannung erhöhen kann: Overvolting ist nicht das selbe wie Overclocking. Übertakten funktioniert genauso gut bei selber Spannung.
  • Dort steht dass das Rev. 2 PCB 1 cm kürzer ist und mit den Kabeln am Ende den selben Platz braucht wie das Rev. 1
  • Und es steht dort nichts von Billigschrott sondern lediglich dass die Spannungsregulatoren bisher bei den günstigeren HD5x Reihen verbaut wurden und nicht von Voltera stammen.
Ansonsten ist die Kühllösung laut dem dortigen Test um einiges leiser auf Kosten einer höheren Temperatur und höherem Stromverbrauch.

Einen anderen Vergleichstest habe ich bisher auch nicht gefunden.
 
Da Nvidia ja einen 1 Jahres Rhythmus vor einiger zeit Geplant hatte (nach G80 glaub)
und der Fermi im September kommen sollte, ist ein Refresh im September sehr realistisch.

nur weil sich der Vorgänger Verschob (fermi1) muss sich der Nachfolger (fermi 2) nicht auch verschieben.
 
Evtl. auch interessant, keine Ahnung ob's schon jmd. gepostet hat:

NVIDIA beschneidet auch DP-Fähigkeiten der GeForce-GTX-400-Serie

So hat NVIDIA aus strategischen Gründen die Funktionseinheiten für Berechnungen in doppelter Genauigkeit bei den Desktop-Modellen massiv beschnitten, weshalb diese nur noch 25 Prozent der theoretischen Rechenleistung bei doppelter Genauigkeit (double precision - kurz: DP) erreichen. Statt 672 GFlop/s bleiben bei einer GeForce GTX 480 somit nur noch 128 GFlop/s bei Verwendung von Gleitkommadaten mit 64 Bit Länge übrig.
 
Naja ungewöhnlich finde ich es nun nicht. Bei beiden Herstellern gab es halt keine Doppelte Genauigkeit bei den Kleineren Karten.
 
Hmmm, ich glaub ich bestelle mir jetzt bei Amazon ne Fermi vertick sie bei Ebay^^
Wie lange meint ihr bleiben die Preise der GTX 480 so "niedrig"?
 
Für Spieler ist die DP-Leistung vollkommen egal. Nominell ist es trotzdem ärgerlich.
 
LuXon schrieb:
Nur im GPGPU Bereich braucht man DP-Perfomance und da wird man Gewiss nicht eine GTX470/480 nehmen.

Da soll man ja auch ne viel teurere Tesla nehmen ;)
 
@LuXon: steht doch in dem von mir velinkten artikel. lies dir mal die stelle mit dem fastra II durch. wenn die wenige hunderte euro teure konsumerkarte die gleiche leistung bringt, wie eine mehrere tausende euro teure profikarte, würde sicher ein nicht unerheblicher teil der potentiellen kunden auf den erweiterten support flöten und die "billigkarten" mit weniger vram und minimal weniger shadern nehmen, statt der selektierten teslas. das würde vermutlich die stückkosten für die teslas für die relativ wenigen kunden, die auf die echten teslas angewiesen sind nochmal deutlich in die höhe steigen lassen.

wie JokerGermany schon richtig sagt, wer dp-leistung braucht, der soll eine profi-karte kaufen. für spiele ist dp-leistung vollkommen unnütz und frisst nur unnötig strom
 
Zuletzt bearbeitet:
Lübke schrieb:
... und frisst nur unnötig strom

na wie gut, dass das nun dank dieser entscheidung nvidias für den thermi nicht mehr der fall ist :evillol:

witzigerweise scheinen dennoch einige nicht abgeneigt vom thermi zu sein.
siehe z.b. umfrage bei 3dc.

mfg
 
Mit den Unterschied, das die HD4870 günstiger war und kostengünstiger herzustellen war.

Bei Thermi ist ja zum Glück schon fraglich ob es eine 2. Charge geben wird.
 
@Lübke
Naja direkt vergleichen kann man den Energierverbrauch der HD4800 nicht mit dem der GTX480.
Vor allem wenn man es in Relation mit der Konkurenz nimmt. Die Differenz zu den GTX2xx war deutlich geringer als von HD5k zu GTX4x0.
 
Ich hatte:
DesktopBereich
GF4 Ti 4400 -> Radeon 9800Pro 128MB -> Radeon 9800 Pro 256MB -> Radeon 2600XT
(die letzen beiden habe ich geschenkt bekommen)

Notebook:
1600XT -> 4670
 
@ Lübke

Ja natürlich das Performance/Watt Verhältnis der 4800 war ja so schlecht im Vergleich zu Nvidia.
Zumal auch der Preis eine Rolle spielt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben