ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
...
Windows ist das meist genutzte Betriebssystem.
Warum an nicht standardisiertes Cuda und zugleich an Windows hängen? ...
Ist OpenCL in diesem Thread noch nicht erwähnt worden? Einerseits behaupten, man müsse CUDA verdammen, weils proprietär ist und andererseits dann eine per Lizenz absolut und unabänderlich an Microsoft-Betriebssysteme gekettete Plattform nutzen wollen, ist imho ganz großer Quatsch und Doppelmoral hoch 10. Wenn sich jeder Windows kaufen kann, kann sich auch jeder Nvidia-Karten kaufen, will man sowas nicht, muss man bei beidem dagegen sein.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Die GTX480 ist kürzer als eine HD5870 *SCNR*

fylvsg.jpg


Für mich ist das eine 5970
 
Habe ich das bestritten? :rolleyes: Die GXT480 ist so lang wie eine GTX280 und damit kürzer als eine HD5870 wie HD5970.
 
@MountWalker:
Klar wäre es schön wenn sie alle auf offene Standards setzten würden, damit ich komplett auf Linux umsteigen kann, aber immmer noch besser sind Standards für andere Hersteller und nicht sich selbst, als für sich selbst.
 
@shurkien
http://i44.tinypic.com/2irn0x2.jpg
Sehe da nicht gerade ne abnormal lange Karte. Hast wohl die Längen der Radeons etwas falsch in Erinnerung. Mal davon ab hat man noch ein paar cm bis das Limit der Spezifikation erreicht ist. Ne 7900GX2 sah doch auch ganz nett aus
 
Zuletzt bearbeitet:
zum Glück sind Geschmäcker verschieden.

Zumindest sieht sie durch die strukturierte und breite oberfläche "wuchtiger" aus.


gruß
 
Einhörnchen schrieb:
Dazu dann Produktfeatures, welche dann je nach persönlicher Präferenz zur Kaufentscheidung beitragen:
- TDP unter last (Vorteil ATI) (hier bin ich mal auf idle gespannt, erwarte aber Vorteil ati)
- nhancer + profile (Vorteil NV)
- PhysX, CUDA (Vorteil NV, Adobe hat übrigens für mercury vorerst reine NV Untersützung angekündigt)
- Verfügbarkeit + Preis (Vorteil ATI)
- Eyefinity (Vorteil ATI)
- 3dvision Support und TWIMTBP (Vorteil Nvidia)

wenn du Nhancer und Profile bringst, kannst du auch das ati tray tool nennen, oder CCC Profile. Hydragrid usw...


gruß
 
@Luxon
Bei der GTX480 sind momentan 250-298W im Gespräch.
Die HD5870 hat 188W
Bin mal gespannt ob der tatsächlich 60W nach unten korrigiert wird beim Release ;)


Aber das wichtigste ist sowieso der Idle Verbrauch.
Sollte der gleich sein, dann müssen sich die Karte von AMD gegen die Karten von Nvidia darin messen, welche Karte die meiste Leistung für den wenigsten Strom bringt. (Von der Lautstärke und dem Preis ganz zu schweigen ;) )

@GreatEvil:
Muss man sich aufs gleiche Niveau herunterbegeben? ;)
 
Ich halte die Heise-Meldung für eine weitere Voreilmeldung aus Spekulationen anderer Seiten !

1. 250 Watt TDP soll die GTX480 haben und damit fast genausoviel wie die HD5970.
Was aber garnicht sein kann weil ATI extra die Taktraten der HD5970 beschnitten hat damit die 300 Watt-Grenze nicht überschritten wird.
Also hat die HD5970 fast 300 Watt TDP und ist somit deutlich Stromhungriger als die GTX480.
2. Nun soll plötzlich die GTX480 45 Watt mehr haben wenn sie auf volle 512 Shader ginge.
Ja ne ist klar.. :lol:
8% mehr Shader erzeugen also 18% mehr Verlustleistung... lol ...

Somit ist das Thema Heise vom Tisch.
 
Danke Pickebuh, wenigstens einer sieht durch!
Nur weil das Heise drauf steht, denken einige anscheinend es ist der heilige Gral. Aber es ist genau die gleiche Sch**** die in jedem Forum seit Tagen umhergeht. Gerüchte werden von Gerüchten mit Gerüchten "bestätigt". Hinzu kommen halt Seiten, die sich darüber dann profilieren wollen. Klicks sind halt alles, das gilt für jede kleine 0815-Seite genau so wie für Heise.
 
MountWalker schrieb:
Einerseits behaupten, man müsse CUDA verdammen, weils proprietär ist und andererseits dann eine per Lizenz absolut und unabänderlich an Microsoft-Betriebssysteme gekettete ....

Was hat das damit zu tun? Es gibt 4 wichtige Grafikkartenabieter. Windows ist sehr stark verbreitet,sogut wie jeder nutzt es.
Dann solltedoch auch jeder Grafikkartenhersteller dies nutzen können um ihre Browser zu beschleunigen und da wäre halt compute Shader besser, weil Cuda propretiär ist, wo ist das Problem?
Für kostenlose Betriebssysteme wird wohl niemand so schnell was derartiges entwickeln, schließlich will man ja auch Geld verdienen.
Und weil Microsofts Betriebssystem was kostet siehst du hier eine Doppelmoral? Naja,ich bin wieder raus.
 
Zuletzt bearbeitet:
OpenCl?
 
Die müssen sich auf etwas offenes einigen müssen, schließlich sollen Internetseiten auch noch dreidimensional werden und heute findet das Internet über unterschiedlichste Endgeräte statt.
 
*nvidia-fahne hochhält*

gerüchten zu folge arbeitet nvidia besser mit spieleentwickler zusammen. so wird in kommenden spielen sicher die neuen nvidia-karten schneller sein, als die von ati.
 
@Nano-kun
das war die Letzten 5 Jahre auch schon so...


wenn ich mir die Signaturen hier auf CB so anschaue, dann ist ca. 90% der Stromverbrauch total egal, also daran soll der Fermi nicht scheitern...

P/L wird vermutlich das selbe sein wie von ATI (Ehr bissel höher um keinen Preiskampf zu produzieren)
denn selbst Produktionskosten von 250$ sind wenig wenn man die Karte wie ATI für 350€ verkaufen kann.
 
Ah, besser zusammenarbeiten nennt man das jetzt :D
*LieberetwaszudemThemazurückhalt*
 
florian. schrieb:
wenn ich mir die Signaturen hier auf CB so anschaue, dann ist ca. 90% der Stromverbrauch total egal, also daran soll der Fermi nicht scheitern...


Richtig, und das ist nicht nur hier so. Alle schreien immer nach stromverbrauch, aber schaust du dann mal auf die signaturen der Leute die schreien, ist da immer die Top-5-Hardware der größten Stromfresser verbaut. Fängt bei CPUs und Mainboards an und geht natürlich bei Grakas weiter. Das Hochgepushe in allen Ehren bei Fermi, aber wenn es am Ende unter Last 40, 50 Watt sind, interessiert das die meisten nicht die Bohne. AMDs Quad-Core-CPUs machen es doch vor: Stromverbrauch interessiert nicht, solange der Preis und die Leistung halbwegs stimmt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben