News Neues von ATi und Nvidia

@tomsen78
Genau wegen Age Of Conan warte ich noch auf die 1GB Version der HD4870, falls die bis Ende der Woche rauskommt, wenn nicht, dann halt eine normale HD4870, denn meine 8800GTS 640 @ Ultra (Taktraten) hat teilweise doch arge Probleme bei 1920x1200 High, bisher zwar nur in Alt-Tarantia in den Villen, aber dhab ja noch viel vor mir.
 
Ich verstehe nicht wie sich so manch einer hier aufregt oder über den anderen GPU Hersteller herzieht. Seit doch einfach nur froh, dass es so ein belebtes Geschäft ist. Für um die 220€ bekommt man sooo viel Performance, wie noch nie zuvor - seit dem G92 meine ich damit. Von da an sind die Preise immer schön gefallen und man kann heute wirklich alles sehr gut zocken. Einzig Crysis, dafür muss noch erst die richtige GPU entwickelt werden - mir persönlich aber egal, habe meines verkauft, als Crytek sein wahres ICH in der Supporteinstellung gezeigt hat. Was läuft denn sonst nicht? Alles was man derzeit zocken kann, wird sehr gut dargestellt, gut Age of Conan soll wohl noch nicht so optimal laufen. Ansonsten sind die klassischen Spiele die zur Zeit gut gezockt werden, wie CoD4, Grid, BioShock, GoW und sämtliche Strategietitel doch durch die Bank flüssig zu spielen in bis zu 1680x1050 mit 2-4xAA und 16xAF.

Was mich persönlich noch etwas an den ATi Karten stört ist, dass wie wohl manche Unreal Engine 3 Titel noch immer nicht mit AA darstellen können, was für mich ein KO Kriterium darstellt. Ich gebe doch keine 200€ und mehr aus um dann auf diese Bildverbesserung zu verzichten. Die Meldung um den GT200b ist ja auch keine Neuigkeit an sich, aber es kann wiedermal nur den Kunden freuen, dass weiterhin gearbeitet wird und ab der nächsten Generation wird die High-End Lösung eh nur noch eine X2/GX2 sein, dass haben beide Firmen doch schon angekündigt.

Von daher sollte man sich doch einfach zurücklehnen und die Situation beobachten. Ich werde diese neue Generation überspringen, wozu auch was neues kaufen, es läuft ja alles wunderbar. Wenn dann im August/September wieder ein Schlagabtausch stattfindet, sinken eh wieder die Preise.

Was die Disskusion um die 2GB Variante der X2 angeht, so kann das nicht falsch sein diese 2GB (wahrscheindlich 2x1GB - glaube nicht, dass es 2GB insgesamt sind auf die beide Kerne zugreifen können) zu veröffentlichen. Es sollen mal endlich sehr viel hochaufgelöstere Texturen verwendet werden, dann wird die Bildqualität auch wieder steigen und damit logischerweise auch der VRAM Bedarf. Es ist aber mit Sicherheit nicht von Nachteil, wenn die X2 2GB bietet. Wer nutzt schon eine solche Karte für 1280x1024 und nutzt dann kein AA/AF... :freak:
 
Zuletzt bearbeitet:
ich denke schon, dass nv weiterentwickelt hat, aber wenn die nicht jetzt ihren g90 aka g200 (was auch immer diese dämliche umbenennung soll :rolleyes: ) auf den markt bringen, wann dann?
angeblich hat der g100 (oder wie auch immer der jetzt heißen wird) ja schon dx11, aber dafür ists ja nu noch zu früh... denke nv muss jetzt aufgrund der hervorragenden leistung von ati doch n zwischenschritt (mit dx10.1?) bringen... nur bei der namensgebung dieser nv-produktmanager blickt ja langsam eh keiner mehr durch...
bin aber überzeugt, dass der g100 schon fertig in der schublade liegt. ich seh das ganze nicht so dramatisch für nv... die werden schon noch n weilchen überleben ^^
 
f1delity schrieb:
@tomsen78
Genau wegen Age Of Conan warte ich noch auf die 1GB Version der HD4870, falls die bis Ende der Woche rauskommt, wenn nicht, dann halt eine normale HD4870, denn meine 8800GTS 640 @ Ultra (Taktraten) hat teilweise doch arge Probleme bei 1920x1200 High, bisher zwar nur in Alt-Tarantia in den Villen, aber dhab ja noch viel vor mir.

Ein guter Freund von mir hatte die GTX280 drin und jetzt die 4870er mit 512MB und meint mit der geht AoC flüssig. Scheinbar reicht der Vram bei ATI wohl wieder aus.
Die Nvidias haben arge Probleme was ihr Speichermanagement betrifft, sogar die Ultras mit 768MB können das Game nicht ruckelfrei wiedergeben wegen dem mangelnden Vram.

Aber an Deiner Stelle würde ich auch erst bei der 1GB Variante von der 4870 zuschlagen, da die aktuelle noch mit Idle Problemen kämpft und man mit 1GB Vram auf der sicheren Seite ist.

Ich hab dennoch meine Traumkarte in der GTX280 gefunden, auch wenn sie sehr teuer ist. In Idle ist sie lautlos eben bei 25% Lüfter und verbraucht so gut wie nichts, und in 3D kann ich 50-80Watt einsparen durch Undervolting. Ich glaube kaum das ein Refresh weniger verbraten würde, "ohne" Undervolting. ;)
 
cosmicparty schrieb:
das nvidia auch auf dx10.1 setzen will, war logisch und ist ein schlag ins gesicht aller, die den aussagen von nvidia glauben schenken. angeblich wärs ja sinnlos usw, nur weil man selber noch nicht in der lage ist es anzubieten.

also auf gut deutsch, wer sich jetzt noch ne GTX260/280 kauft, der erwirbt teueres altes zeug.

Ja genau dsa dachte ich auch, nvidia hat dx10.1 nicht deshalb nicht eingebaut weil sie es nicht gekonnt hätten oder weil es sinnlos ist, sondern ganz einfach weil man in führung lag und daher keinen grund dazu hatte. Da man bisher den großteil der spieleindustrie auf der seite hatte und auch kaum eine firma dx10.1 spiele entwickeln wollte wenn >60% der eingebauten karten von nvidia das nicht unterstützen.
Ich bin auf erste benchmarks bespannt von dx10.1 spielen, da wird dann sicher die 4870 dem gtx280 sehr gefährlich.

Krautmaster schrieb:
40nm sehr geil da ich mir eigentlich mit Nehalem neue GPU bestellen wollte =)

http://geizhals.at/deutschland/a348608.html

205€ für eine schon echt gut übertaktete Version des GTX 260. Der HD 4870 in Punkto Liestung definitiv überlegen.
Die HD4870 ist im Preis bis jetzt nicht gefallen. Zurzeit kosten sie exakt gleichviel.

Der Preiskampf geht erbittert weiter, gut für uns ;)

Edit:

Eine sehr gut übertaktete Version der 280er kostet "auch schon" unter 400€
http://geizhals.at/deutschland/a344249.html

ja definitiev sind die nvidia karten bei diesen für nvidia katastrophalen preissenkungen echt interessant. Wundert mich ein bischen das die so radikal senken gerade die gtx280 hat ja innerhalb von einer woche oder so 150,- an preis verloren, wartete aber aml noch 2 wochen da ist dann sicher noch bischen mehr drin ^^.

Killermuecke schrieb:
der Aktienkurs hat sich im letzten Monat halbiert!

Ja und hat amd mit in den abgrund gerissen ^^. Das ist echt das schlimme an der börse, der Branchenrieße legt schlechte zahlen vor, dann gehen alle anderen aktien in dem bereich auch runter (war vor nem halben jahr mit intel das selbe), das es aber genau mit diesem konkurenten zu tun haben könnte und es kein branchentrend ist sondern die stärkere konkurenz so weit denken die irgendwie nicht ^^.
Aber ähh ja das witzige find ich das diese zahlen noch gar nichts mit der aktuellen grafikkartengeneration zu tun hat ;) wenn dann die zahlen vom nexten quartal kommen dann dürfen wir uns auf billige nvidia aktien <10,- freuen, und dann wird wohl amd erstmal wieder nicht nur real sondern auch in form von aktienwert teurer wie nvidia sein. Was auch sinn macht. nvidai und ati haben sich damals nicht viel geschenkt und dann kann nicht ati + amd < nvidia sein. Das ist schwachsinn.

Richy1981 schrieb:
ich habe vor kurzem irgendwo gelesen dass die GTX-Chip in der Fertigung irgendwas um die 110-135 $ kosten soll (stand das nicht vor kurzem bei CB?), während der 4800er Chip um die 35 $ kosten soll.....wenn man jetzt noch bedenkt dass Nvidia zurzeit nicht mal ne Yieldrate von 40 % schafft ist das natürlich heftig falls diese Daten stimmen sollten. Und AMD/ATIs Yieldrate ist auf jeden Fall um einiges höher.

sind bei den kosten die yieldraten nicht schon eingerechnet? aber selbst wenn, nvidia wird definitiev noch gewinn mit den karten machen das ist keine frage, vor allem mit der gtx280, die ja in der herstellung genau so viel kostet wie eine gtx260 ist ja selbe chip nur höher getaktet, aber die gewinne werden doch sehr gering ausfallen, und ati wird derweil saugut geld verdienen. Das gönn ich amd grad echt, damit + den fehlerfreien phenoms wird man in zukunft wieder gut in die gewinnzone rutschen. (ja ich weiß die intels sind besser, aber grade im serverbereich ist der barcelona immernoch besser wie jeder intel, wegen HyperTranspor.

Aber finde die News doch bischen PRO NVIDIA, weil in der orginalquelle steht noch das auch ati bis dahin auf 40nm setzten will, hier bei cb wurde das einfach weg gekürtzt.

Bei ati ist das einfach der nächste logische schritt. Bei nvidia stelle ich da eher große fragezeichen hin, das glaub ich erst wenn ichs seh, das die 2 fertigungstechniken innerhalb von nem ahlben jahr wechseln, mal davon abgesehen das das schweinegeld kostet, da eine umstellung ja kostet und man normalerweise dann erstmal ne weile auf der basis entwickelt um die kosten wieder reinzukriegen. Aber gut sie entwickeln beide ja nicht selber, von daher könnten die kosten nur indirekt auf nvidai und ati abfallen.

Aber trotzdem wäre das wohl einmalig innerhalb von 6 monaten von 65 -> 55 -> 40 nm zu shrinken. Da hat wohl jemand panik, irgendwie versteh ich nvidia grad nicht so schlecht erscheint mir der chip gar nicht, weiß da nvidia noch was was wir nicht wissen, sind die ati-chips von der hardware her noch überlegener und mit geeignetem treiber oder mit dx10.1 spielen noch ein gutes stück schneller ^^

Andererseits, wenns auf nen preiskrieg rausläuft, was schon noch passieren könnte da nvidia ja grad die preise massiv senkt und sollte amd feststellen das plötzlich wieder alle die gtx karten kaufen, dann kann amd nvidia was den preis angeht so im regen stehen lassen das nvidia entweder fett in rote zahlen geht oder eben wieder schlechter verkauft wird. Nvidia kann bei nem preiskrieg nicht gewinnen.
 
Zuletzt bearbeitet:
Ich gebs offen zu: Ich komme als Computerfreak und Besitzer von zwei 8800GTX im SLI mit den Typenbezeichnungen einfach nicht mehr klar. Ich habe aber auch keine Lust mehr dazu.
 
Interessant ist, dass keiner daran denkt, dass Nvidia mit dem GT200b vielleicht auch eine GX2 280 (oder wieder auch immer die heißen mag) raus bringen kann. Immerhin verbraucht der GT200 bisher nicht so extrem viel mehr als der RV770 und der DIE Shrink wird ihn vermutlich genügsamer machen als eben dieser und somit steht der Dual Karte nix mehr im Weg!

Damit muss der GT200b nicht derart übertaktet werden, um die die 4870 X2 zu schlagen. Und selbst wenn er 15% besser wird als die jetzige GTX280, dann kommt immernoch der wesentlich geringere Stromverbrauch als bei der Dual-Karte zum tragen und die dann nicht mehr so hohen Fertigungskosten. Damit wäre Nvidia wieder in Front und ATi müsste reagieren.
 
ja, eine "260/280 GX2" mit dem refreshten chip halte ich in anbetracht der 4870 X2 auch für realistisch....frage mich allerdings bis heute wie die karten auch nur halbwegs leise mit nem dual slot kühler gekühlt werden sollen. die kommen ja jetzt mit den single gpu karten schon extrem an ihre grenzen.
 
bamchen schrieb:
Was ein wenig bei dem ganzen Grafikkarten-Krieg stört ist die momentane Flaute an grafisch überragenden Spielen. Wozu jetzt ne neue Karte kaufen wenn man derzeit doch immernoch mit ner 8800GT (bei höheren Auflösung vllt ne särkere Karte dieser Generation) alles wunderbar auf höchsten Qualitätseinstellungen spielen kann?
Natürlich, wer jetzt noch alte Hardware im Rechner hat, welche dies nicht kann, wird wohl bedenkenlos zugreifen können. Momentan bleibt für alle anderen aber die Frage, warum jetzt Hardware Updaten, wenn vielversprechende Spiele eh erst mit der nächsten Generation von ATI und Nvidia kommen?

Jedenfalls erscheint hier die Politik von ATI noch am überschaulichsten zu sein. 3 Karten pro Generation. Mid High und Ultra-High. Das deckt alle Käuferschichten ab, alles dadrunter wird eh von älteren Generationen abgedeckt. Da kann man nur hoffen, dass Nvidia mit seiner Politik ein wenig auf die Schnauze fällt und in Zukunft auch wieder ein ähnliches "3 Karten-Modell" übernimmt anstatt den Markt zu überfluten.

Ja genau aus dem grund verkauf ich gerade meine hd3870 bei ebay ^^ und benutz meine alte x800. Gibt ja kaum interessante spiele. hoff kann mich dann bis zum r800 zurückhalten, davon dann die 5850 version dürfte mir reich auch wenn ich dann einen 1920x1280 moni haben werde bis dahin. Aber natürlich nur wenn bis dahin mal ein interessantes spiel mit guter grafik raus kommt, für spore oder starcraft2 dürfte die x800xl wohl warscheinlich noch reichen. Bei starcraft2 bin ich mir nicht mehr so sicher wenn ich da von dx10.1 lese aber glaub bei dem spiel kann man dann auch auf ein paar effekte verzichten.

tomsen78 schrieb:
Ich hab dennoch meine Traumkarte in der GTX280 gefunden, auch wenn sie sehr teuer ist. In Idle ist sie lautlos eben bei 25% Lüfter und verbraucht so gut wie nichts, und in 3D kann ich 50-80Watt einsparen durch Undervolting. Ich glaube kaum das ein Refresh weniger verbraten würde, "ohne" Undervolting. ;)

Naja so gut wie nichts ist jetzt bischen übertrieben, irgendwas zwischen 30-50W wird sie wohl immernoch schlucken, aber ich weiß für euch nivida-user ist das wenig ^^. Ja ich weiß die ati schluckt grad noch mehr, aber reden wir nochmal ende monat darüber wenns bis dahin keine lösung für das problem gibt glaub ichs, vorher sind das für mich nur treiberbugs.

Achja was ich eigentlich fragen wollte, wann hast dir die gtx280 gekauft. Bzw vorallem was hast für gezahlt. 550, 500 oder 450? bei ersteren beiden müsstest dir ddoch auf die zunge beissen ;)

H3rby schrieb:
Interessant ist, dass keiner daran denkt, dass Nvidia mit dem GT200b vielleicht auch eine GX2 280 (oder wieder auch immer die heißen mag) raus bringen kann. Immerhin verbraucht der GT200 bisher nicht so extrem viel mehr als der RV770 und der DIE Shrink wird ihn vermutlich genügsamer machen als eben dieser und somit steht der Dual Karte nix mehr im Weg!

Damit muss der GT200b nicht derart übertaktet werden, um die die 4870 X2 zu schlagen. Und selbst wenn er 15% besser wird als die jetzige GTX280, dann kommt immernoch der wesentlich geringere Stromverbrauch als bei der Dual-Karte zum tragen und die dann nicht mehr so hohen Fertigungskosten. Damit wäre Nvidia wieder in Front und ATi müsste reagieren.

lol du vergisst bei deiner rechnung aber einen ganz entscheidenen punkt. Herstellungskosten. Im highend ists ja eh egal ob die x2 jetzt 10 oder 20% teurer sein sollte solange sie nur 5-10% mehr leistung bringt und da spielt dann stromverbrauch auch fast keine rolle mehr.

Aber, nochmal auf deine gtx280 x2 zu kommen, den könnte nvidia schon mit schlechten gewinnen nicht für unter 700,- anbieten. Da wäre dann ati wieder schätzungsweise 300,- billiger und wer kauft sich dann bitte für 700,- so eine karte?

naja gut, lass sie auch nur 500,- kosten, so schnell zaubert nvidia das nicht aus dem ärmel. ati hat jetzt ein halbes jahr dran entwickelt und jetzt legt das nvidia mal kurz nach obwohl sowas nicht geplant war, da könnt ihr locker 3-6 monate drauf warten. Die angekündigte konkurenzkarte die jetzt erstmla kommen wird der schnellschuss ist mal sicher keine gx2.
 
Zuletzt bearbeitet:
H3rby schrieb:
Interessant ist, dass keiner daran denkt, dass Nvidia mit dem GT200b vielleicht auch eine GX2 280 (oder wieder auch immer die heißen mag) raus bringen kann. Immerhin verbraucht der GT200 bisher nicht so extrem viel mehr als der RV770 und der DIE Shrink wird ihn vermutlich genügsamer machen als eben dieser und somit steht der Dual Karte nix mehr im Weg!

Damit muss der GT200b nicht derart übertaktet werden, um die die 4870 X2 zu schlagen. Und selbst wenn er 15% besser wird als die jetzige GTX280, dann kommt immernoch der wesentlich geringere Stromverbrauch als bei der Dual-Karte zum tragen und die dann nicht mehr so hohen Fertigungskosten. Damit wäre Nvidia wieder in Front und ATi müsste reagieren.

Aber um welchen Preis? 700-900€? AMD hätte immer noch das bessere Preis-Leistungs-Verhältnis, zumal man ja im Gegensatz zu Nvidia noch mit den Preisen runtergehen kann, wenn man sich die Produktionskosten anguckt.
 
Hat nich Nvidia groß angekündigt, keine Dual-Chip Karte zu produzieren?
Also wenn eines bei der neuen GTX2xx Reihe klar war, dann wars die Aussage von Nvidia diesmal keine Dual-Chip Karte - von daher würd ich hier erstmal abwarten mit der Aussage.

die kommen ja jetzt mit den single gpu karten schon extrem an ihre grenzen.
Siehe Thread von y33h@ - 98°C mit 100% Lüfter bei der 280 :p
Aber weder Nvidia noch ATI verdienen irgendein Lob für die aktuellen Kühler ... warum lassen die nicht gleich Dritthersteller an die Karten. Irgendjemand die Kühlungsfrage übernehmen lassen, der davon Ahnung hat :)
 
Zuletzt bearbeitet:
Exlua schrieb:
Nvidia brauch nur eine 9800 GTX+ GX2 rausbringen oder gar GTX260 GX2 :evillol: Sicherlich wird die X2 schneller sein als eine GTX280, trotzdem hat man mit der GTX immer noch bessere Möglichkeiten bzw. Performance. Da CF nicht überall gleich viel bringt...

Und alles ab 2560 + 8xAA & 16AF ist GTX280 Gebiet :)

Hast Du irgendetwas vom einer NV x2 gehört? Wenn nicht, ist es völlig irrelevant. Vielleicht haben sie eine in der Hinterhand, vielleicht haben sie aber auch Probleme eine herzustellen. Das weiß nur NV, also unwichtige Spekulation die Richtung Fanboy Getue geht.
 
Was mich an der R700 wundert ist, wie man sie vernünftig takten und trotzdem unter den 300W bleiben will, die durch PCIe Schlitz, PEG 6-pin- und PEG 8-pin-Anschluss insgesamt zur Verfügung stehen.

Das kann mit 2 x RV770Pro (+ PCIe Bridge) klappen, aber 2 x RV770XT, Bridge und dann noch doppelter RAM? Wie soll das gehen?
 
Die Nvidias haben arge Probleme was ihr Speichermanagement betrifft, sogar die Ultras mit 768MB können das Game nicht ruckelfrei wiedergeben wegen dem mangelnden Vram.

Nun ja generell ist es schon richtig das NV mit dem Speichermanagement ATI hinterher hinkt. Bei AOC und einer Ultra begrenzt allerdings klar die GPU.
Wenn ich SLI abschalte reicht eine meiner GTX bei AOC bei meinen Einstellungen (1920x1200 4xAA und alle Regler am Anschlag) auf dem aktuellen Clientstand in vielen Fällen nicht mehr aus. Wenn ich aber SLI einschalte (welches trotz der offiziel noch nicht vorhandenen Unterstützung mit dem richtigen Treiber mit ca. 80% Leistungszuwachs skaliert) habe ich in keinem Gebiet irgendwelche Probleme (Durchschnittlich 50-60FPS). Da meine Karten auch nur 768Mb haben denke ich also nicht das es da am Speicher hapert.
 
Zuletzt bearbeitet:
Problem ATI: Technisch ist man zwar Vorreiter, aber Nvidia hat zuviel Geld und kann man auch mal so nen Bockmist fahren wie man im mom teilweise hat.

Stimmt. Mir gefällt die aktuelle Lage gut: nv geht es bedeutend besser als AMD, also soll erst mal AMD Geld in die Kasse bekommen. NV hat sicher die finanziellen Mittel, um das in vernünftiger Zeit aufzuholen, nur in der aktuellen Generation haben sie verloren.
Zwei auch nicht ganz unwesentliche Punkte:
1)AMD/ATI hat jetzt schon mehr KnowHow zum Thema "wie sehen GraKas der Zukunft aus?" -- nämlich mehrere flotte kleine Chips kombinieren.
2)Software wird auf den Marktführer optimiert. Momentan ist aber AMD Marktführer. Ausgeglichene Verhältnisse an dieser Stelle würden sich auch mit Sicherheit länger halten als eine GraKa-Generation.

ich habe vor kurzem irgendwo gelesen dass die GTX-Chip in der Fertigung irgendwas um die 110-135 $ kosten soll (stand das nicht vor kurzem bei CB?), während der 4800er Chip um die 35 $ kosten soll.....wenn man jetzt noch bedenkt dass Nvidia zurzeit nicht mal ne Yieldrate von 40 % schafft ist das natürlich heftig falls diese Daten stimmen sollten. Und AMD/ATIs Yieldrate ist auf jeden Fall um einiges höher.

100-110$/Chip sollten es bei der 280er sein. Wenn die Yieldrate aber weit unter den angepeilten 40% liegt... bei 20% wären es 200$ -- so viel wie die 4850 an der Ladentheke... und wenn man jetzt eine höher getaktet "Ultra" auf den Markt bringen will, dann wird sich die Ausbeute nicht enbedingt verbessern. Da kann nv nur auf die Verzweiflungstat 55nm hoffen.


ja, eine "260/280 GX2" mit dem refreshten chip halte ich in anbetracht der 4870 X2 auch für realistisch....

Glaube ich kaum, allein schon wegen der Leistungsaufnahme. Die 280gtx bleibt zwar normal unter den angegebenen 236Watt, trotzdem muss sie das aufnehmen und abführen können. Eine GX2-Karte müsste dann fast 500Watt aushalten... auch ein Refresh wird das nicht so weit senken, dass das geht.
nv wird sicher auch GX2-Karten bringen, aber dafür muss erst mal ein Mittelklasse-Chip auf dem Markt sein, von dem man auch zwei verbauen kann.
 
@Drachton

Keine Multi-GPU Grafikkarten mehr von Nvidia? So etwas habe ich aber schon gehört. Ich kann mir aber nicht vorstellen, dass dies so einfach möglich ist.
Aber bei DX10.1 ist es doch das gleiche...

Nvidia ist halt sehr politisch und hält es wie unsere Politiker. Frei nach Adenauer ist die Halbwertzeit des Wahrheitsgehaltes eher gering...
 
blackiwid schrieb:
lol du vergisst bei deiner rechnung aber einen ganz entscheidenen punkt. Herstellungskosten. Im highend ists ja eh egal ob die x2 jetzt 10 oder 20% teurer sein sollte solange sie nur 5-10% mehr leistung bringt und da spielt dann stromverbrauch auch fast keine rolle mehr.
Der GT200b wird mit Sicherheit nicht mehr so teuer wie der GT200.. Also habe ich das mal so mit einberechnet.

Und selbst ATi wird im Moment mit 200€ für die HD 4870 keine großen Gewinne einfahren und Nvidia kann locker im Preiskampf mithalten, denn noch haben sie mehr Geld. Und selbst wenn es "nur" eine GX2 260 (GT200b) wird, dürfte die noch schneller werden als die HD 4870 X2. Und da könnten beide Karten den gleichen Preis beziehen.

Und die GTX280 in 55nm wird auch weniger kosten als die HD 4870 X2.. (Bei nicht viel weniger Leistung.)

Und wenn die ersten X2 von ATi immernoch den Bug mit dem Powerplay haben... Ich weiß, hier sind sich viele Sicher, dass der Bug schnell behoben wird durch neue Treiber, aber die Karten gibt es jetzt schon über 2 Wochen und es ist noch nix passiert..


Also ich kann hier keinen Sieger sehen.


@ Killermuecke:

Warum soll der DIE Shrink auf 55nm eine Verzweiflungstat sein? War es denn bei ATi ebenso, als diese die 2900XT auf 55nm neu heraus gebracht haben? Es ist einfach die normale Entwicklung!

Auch glaube ich, dass die GTX280 auf GT200b Basis bei der Stromaufnahme mit dem RV770 gleichzieht oder ihn sogar unterbietet, damit stellt sich die Frage nicht. Außerdem muss auch ATi beim RV700 enorm viel Watt abführen und vorallem erstmal mit den 300W auskommen, die sie zur Verfügung haben. Im Moment verbrauchen 2 HD 4870er nämlich weit mehr als 300W...
 
Zuletzt bearbeitet:
blackiwid schrieb:
Naja so gut wie nichts ist jetzt bischen übertrieben, irgendwas zwischen 30-50W wird sie wohl immernoch schlucken, aber ich weiß für euch nivida-user ist das wenig ^^. Ja ich weiß die ati schluckt grad noch mehr, aber reden wir nochmal ende monat darüber wenns bis dahin keine lösung für das problem gibt glaub ichs, vorher sind das für mich nur treiberbugs.

Achja was ich eigentlich fragen wollte, wann hast dir die gtx280 gekauft. Bzw vorallem was hast für gezahlt. 550, 500 oder 450? bei ersteren beiden müsstest dir ddoch auf die zunge beissen ;)

Nein wieso sollte ich mir auf die Zunge beißen? Wenn ich mit der Entscheidung leben kann 500 Euro für eine Graka auszugeben, dann habe ich keine Cognitive Dissonanzen wenn der Preis der Karte sinkt. Ich hatte auch knapp 480 Euro ausgegeben damals für 2x3870er mit passiven Kühlern, damit konnte ich auch leben, oder 310 Euro für eine GTS G92. Für die Leistung ist die GTX280 jetzt zumindest mit ~380 Euro regelrecht günstig.

Und glaub mir, ich hatte alle ATI Karten vor der 48x0er Serie, die waren nicht sparsamer als der GT200 in Idle. Nur die 3870 etwa ist in idle gleichauf.
 
Wie ist das denn eigentlich mit den Mikro-Rucklern bei der HD4850 und HD4870 im CF? Hatte irgendwo (ich dachte bei Computerbase) mal in einer News gelesen, dass das lt. ATi durch ein Aendern der PCIe-Anbindung (also informationstechnisch - nicht mechanisch und nicht elektrisch) bekaempft worden sein soll..

Sollte sich das wirklich reduziert haben/weg sein, waere fuer mich ein gravierendes Manko von Crossfire weg.. (wuerd's mir deswegen aber trotzdem nicht zulegen, da mir eine ansprechende Grafik nicht soviel Wert ist ;))

fumo
 
Zurück
Oben