News Neues von ATi und Nvidia

man hat einfach keine chance mehr, seinen rechner auf aktuellem stand zu halten. Man kauft sich das teuerste was es gibt und 4 wochen später is ne neue Reihe am Start oder zumindest angekündigt, die das eigene NEUE System um Längen schlägt. Auf die dauer ist das echt schlimm, finde ich.
 
Es ist ja schön, dass so stetig neue grafikkarten auf dem markt erscheinen, nur muss es erst einmal spiele und andere anwendungen geben die dx 10 vollkommen unterstützen.

Wenn spiele weiterhin auf dx9 und dx10 programmiert werden, wird sich das dx10 nie ausreizen lassen können. Spiele die z. B. einzig auf dx10 ausgelegt sind haben eine deutlich bessere performance als heutige DX10-GAMES for windofs^^.

Trotzdem finde ich es gut, das Ati wieder so gut im middle-high range punkten kann :-)
 
Vorallem ist der Aktienkurs von AMD/ATi ja auch nicht gerade gestiegen, sondern ebenfalls gefallen..

@ merkur_5: Das glaubst du doch selber nicht, oder?
 
HOT schrieb:
Wenn der G200b so wird wie der G92b zu G92 hat der R700 nichts zu befürchten...
Vielleicht sollten wir erstmal warten bis wir wissen, was wirklich als R700 durch die Gegend geistert?

HOT schrieb:
Auch ein G200b hätte immernoch ein >400mm² Die, was auch hier eine GX2-Karte ausschließt.
So ein Quark, die Größe des Siliziumscheibchens hat doch nichts mit der technischen Möglichkeit einer Doppelchipkarte zu tun. Ausser natürlich, es hat sich extrem viel Speck angefuttert und ist plötzlich 2 cm dick. :freak:
 
incurable schrieb:
Vielleicht sollten wir erstmal warten bis wir wissen, was wirklich als R700 durch die Gegend geistert?
2x RV770XT, das ist wohl eher kein Geheimnis mehr ;). Da das PCB keinen Bridgechip vorsieht, ist also auch Shared-Memory sehr wahrscheinlich.
So ein Quark, die Größe des Siliziumscheibchens hat doch nichts mit der technischen Möglichkeit einer Doppelchipkarte zu tun. Ausser natürlich, es hat sich Speck angefuttert und ist plötzlich 2 cm dick. :freak:
Die Grösse des Dies hat nichts mit Doppelkarten zu tun? sorry, aber :freak:
Der G200 hat ein 512Bit Interface, entsprechend viele Anschlusspins und auch die 55nm Version frisst eher mehr als weniger Strom, weil man auch mit dem Takt hochgehen wird. Mit dem G200(b) ist definitiv keine GX2 drin.
 
Zuletzt bearbeitet:
HOT schrieb:
2x RV770XT, das ist wohl eher kein Geheimnis mehr ;).
Dann erklär' mal, wie AMD 2 RV770XT, eine PCIe-Bridge und den doppelten Speicher in 300W max packen will.

HOT schrieb:
Da das PCB keinen Bridgechip vorsieht, ist also auch Shared Memory sehr wahrscheinlich.
Ich glaube, Du erinnerst da was falsch. R700 hat sehr wohl eine PCIe-Bridge:

http://en.expreview.com/2008/06/28/real-r700-pics-unveiled/

HOT schrieb:
Die Grösse und Abwärme des Dies hat nichts mit Doppelkarten zu tun?
Größe? Nichts. Absolut gar nichts. Abwärme? Hattest Du nicht erwähnt, nicht mal impliziert, da Größe und Abwärme auch nichts miteinander zu tun haben.

HOT schrieb:
[...] die 55nm Version frisst eher mehr als weniger Strom, weil man auch mit dem Takt hochgehen wird.
Für eine Einzelkarte nach dem Vorbild der 9800 GTX+ vielleicht, aber dass GX2s eher deutlich niedriger takten als ihre Einzelchipkollegen hat sich sowohl bei der 7950 GX2, als auch bei der 9800 GX2 gezeigt.
 
eine gx2 kann man wohl kaum ausschließen, da es lediglich zwei gtx260 wären, die sich eine einzige pci-e schnittstelle teilen...
da hat nv einen vorteil mit ihrem "sandwichprinzip". die karte muss nicht umorganisiert werden. und bei der guten skalierung von sli im vergleich cf würde sich eine gx2 260 als gegenpart zur 4870x2 eigentlich gradezu aufdrängen. der preis würde wohl bei min 399,- € liegen müssen (2 x gtx260 als richtwert). so wäre die ati wohl günstiger, die nv dagegen eindeutig schneller. hier muss dann jeder abwägen, ob er lieber mehr leistung oder einen günstigeren preis möchte. zudem könnte die gx2 260 noch in sachen verbrauch punkten. wäre also schon ne reizvolle karte. allerdings handelt nv seit längerem ja alles andere als logisch -.-
 
Man kauft sich das teuerste was es gibt und 4 wochen später is ne neue Reihe am Start oder zumindest angekündigt, die das eigene NEUE System um Längen schlägt. Auf die dauer ist das echt schlimm, finde ich.

Bald wechselt man die Grafikkarten so häufig wie die Unterwäsche. Das Wettrüsten um die Geschwindigkeits-Krone zwischen AMD und Nvidia ist ja immo der Wahnsinn.


WWNN schrieb:
Geht der Trend jetzt dahin, dass man vierteljährig eine neue Grafikkarte kaufen kann? :freak: [...] Kaum ist die neue Generation raus, gibts schon Gerüchte von neuen Generationen...

Nö, ich glaube ihr seht das zu kurzfristig. Der G80 war jetzt 2 Jahre lange oder länger auf dem Markt und Nvidia hat mehr oder weniger nach Gutdünken die Preise diktiert.
Die Hd3000 Serie waren erste Nadelstiche und die Hd4000 Serie hat die riesen Seifenblase in der nvidia'schen "Prestige-Preispolitik" endgültig zum Platzen gebracht.
Ich kann es ja gut und gerne verstehen, dass man die Masse an Kunden mit hartem Marketing weich koch und für blöd verkauft. Klappte ja auch tadellos. Mit den Ängsten der Kunden und ihrer Vorsicht wie "Konkurrent B hat nicht so tolle Treiber / tollen Service" läßt sich halt als Marktführer bequem das Geschehen diktieren.

Unheimlich viele sind einfach zu faul und nicht mutig genug, sich umzuorientieren.
Der G80 war seiner Zeit genial, aber jetzt wird dieser riesige Knoten endlich mal aus der Leitung gespült und das passiert nicht ohne deutlichen Gewinnverzicht seitens Nvidia.
Das ist doch aber eine logische Konsequenz, wenn man seine Überlegenheit von 2006 bis 2008 ausspreizen will - nur mit Facelifts.
Der G92 war G80 und auch der GTX2x0 ist ein G80. Der G200b wird es aller Vorraussicht nach noch immer sein.
Hättet ihr aber damals, vor ca. 2 Jahren(?) eine 8800gtx für 500(?)€uronen gekauft, dann hättet ihr auch heute noch eine Karte, die 80% der Spiele in guten Auflösungen und Leistungen darstellen kann und das mit abnehmender Tendenz auch in den nächsten Monaten noch können wird. Nimmt man mal dieses lächerliche Crysis raus.

So viel zu meiner subjektiven Sicht.

Entweder, man wartet bis ultimo, um sich dann für ein Modell zu entscheiden oder man kauft jetzt und ärgert sich, am Ende dann doch das "Falsche" gekauft zu haben. Wo soll das noch hinführen??..
Nö, kauf jetzt einen Hd4850 für 135€ und du wirst in einem Jahr womöglich 50€ Wertverlust haben. Aber dennoch hast du eine Spitzenkarte die selbst auf großen Monitoren alles super darstellen kann - zu dem Preis.
Klar gibts die dann nach Weihnachten für unter 100€, aber macht sie das schlechter? Nur relativ gesehen, schnell ist sie dann immernoch.
 
Lübke schrieb:
ich denke schon, dass nv weiterentwickelt hat, aber wenn die nicht jetzt ihren g90 aka g200 (was auch immer diese dämliche umbenennung soll :rolleyes: ) auf den markt bringen, wann dann?
angeblich hat der g100 (oder wie auch immer der jetzt heißen wird) ja schon dx11, aber dafür ists ja nu noch zu früh... denke nv muss jetzt aufgrund der hervorragenden leistung von ati doch n zwischenschritt (mit dx10.1?) bringen... nur bei der namensgebung dieser nv-produktmanager blickt ja langsam eh keiner mehr durch...
bin aber überzeugt, dass der g100 schon fertig in der schublade liegt. ich seh das ganze nicht so dramatisch für nv... die werden schon noch n weilchen überleben ^^

wat laberst du da überhaupt? das dx11 ist noch nicht einmal def. von microsoft und die sollen das schon verbaut haben? krass.. man man was für ein shit!
 
Ist schön zu hören, Konkurenz belebt das Geschäft.

Allerdings frage ich mich, wo bleiben die Anwendungen für diese Grafik Monster?

Ich habe seit erscheinen (1 1/2Jahre) der 8800GTX eine im Case verbaut:D und bin immernoch up2date.

Sicherlich haben 9800 &co x2`s mehr Frames bei Crysis allerdings aber das wars dann auch schon.
 
Liebe Computerbase,

Spekuliert wird derzeit um eine Grafikkarte auf Basis eines G200b-Chips (GeForce GTX 290?), der in 55 nm und nicht wie der G200 in 65 nm gefertigt wird und Anfang September erscheinen könnte.

Könntet ihr bitte auf solche Nullaussagen verzichten? "Spekuliert wird"? Da gehört mindestens dazugeschrieben, wer denn hier spekuliert. Seid ihr es, die spekulieren? Wenn ja, auf welcher Grundlage? Oder hat der Redakteur hier einfach das unsubstanziierte Gewäsch von einer paar Idioten in irgend einem Forum als "News" verwurstet? Oder sind das etwa handfeste Insiderinformationen?

Bei aller Liebe, aber sowas ist einfach nur unprofessionell. Übersetzt heisst das nämlich: "wir haben uns das aus der Kimme gezogen, aber wir tun einfach mal so, als seien das echte News, indem wir so eine irreführende Phrase wie "spekuliert wird" einfügen".
 
Zuletzt bearbeitet:
@Alle die von GTX 280OC=GTX290 reden

Auch wenn man die GTX 280 übertaktet ist sie nie im leben so schnell wie die HD 4870X2.
Übertakten bringt in Games vielleicht 5%.
Ich hab selber bis zum erbrechen übertaktet und 30003Dmark Punkte dazubekommen aber in Games von 0-20 Frames mehr. Aber die war EXTREM übertaktet.

Und naja warscheinlich kommt von Nvidia noch ein 200C und 200D raus. :freak:
Die haben nur Glück dass sie so viel Geld haben sonst könnten sie wieder ganz von unten anfangen. Ich glaub auch dass die HD 4870X2 die Leistungskrone bekommt und eine "GTX290" so was ist wie ne 8800 GTS 512@9800 GTX
Tja Nvidia baut nur Kacke aber sie habens verdient


Mfg OC_Master
 
serra.avatar schrieb:
naja die Single HD4870 konnts nicht richten ... und die HD4870X2 sieht gegen nen SLI aus
2x GTX280 auch kein Land ... und ne HD4870 gegn eine GTX280 antreten zu lassen ist quatsch, wäre ja ne irre Blamage für ATI wenn nichtmal ne DualGPU ne SingleGPU schlägt ...

und was haben alle immer mit DirektX 10.1 gibt ja bisher kein Spiel das DirketX10 richtig ausnutzt, selbst Crysis kratzt höchstens 10% an der Oberfläche ...

einzigts P/L sind ATI Karten unschlagbar ... und da lässt sich sicher mehr verdienen ... ATI/AMD kanns ja gebrauchen ...

Hast du dir auch mal die Preise angeschaut?

2x GTX280 -> 800 Euro

So wie du sagst: "Dual GPU muss Single schlagen"

So sag ich: Kein Wunder, dass Nvidias SLI Gespann vorne ist, wenn es doppelt so viel kostet :)

Fakt doch einfach mal, die HD4870X2 wird die GTX280 kaputt machen, und eine GTX280X2 ist technisch nahezu unmöglich, diese Generation geht ganz klar an ATI, ob das die Nvidia Fans sehen möchten oder nicht:>

Klares Indiz dafür ist doch der klare Preisverfall bei den Nvidia Karten, keiner kauft so einen Mist für diesen Preis.
 
Zuletzt bearbeitet:
OC bringt schon was, wenn ich AoC 1920x1200 spiele ohne GPU-OC ~20fps mit OC 40-130fps, 8800GTS 640.
 
Lübke schrieb:
ich denke schon, dass nv weiterentwickelt hat, aber wenn die nicht jetzt ihren g90 aka g200 (was auch immer diese dämliche umbenennung soll :rolleyes: ) auf den markt bringen, wann dann?
angeblich hat der g100 (oder wie auch immer der jetzt heißen wird) ja schon dx11, aber dafür ists ja nu noch zu früh... denke nv muss jetzt aufgrund der hervorragenden leistung von ati doch n zwischenschritt (mit dx10.1?) bringen... nur bei der namensgebung dieser nv-produktmanager blickt ja langsam eh keiner mehr durch...
bin aber überzeugt, dass der g100 schon fertig in der schublade liegt. ich seh das ganze nicht so dramatisch für nv... die werden schon noch n weilchen überleben ^^

sorry, aber das ist die meldung des tages, an komik kaum zu überbieten.

nvidia hat nen dx11 chip in der schublade... glaubste eigentlich auch an nen osterhasen? :D

die sind noch net mal in der lage nen 55chip zu basteln im moment, habe dx10.1 nicht implementieren können bis jetzt... aber im "geheimtresor" liegt n fertiger chip, der dx11 kann, obwohl noch niemand, noch net mal M$ sehr wahrscheinlich, genau weiß wann dx11 kommt und was es kann.

nvidia überläßt ati als freiwllig marktanteile und das der börsenkurz zusammengebrochen ist, finden die auch gut? *g*
und die geben gerne gewinnwahrnungen raus usw.

der blödsinn des tages, also so argumentieren wirklich nur fanatische fanboys :D
 
f1delity schrieb:
OC bringt schon was, wenn ich AoC 1920x1200 spiele ohne GPU-OC ~20fps mit OC 40-130fps, 8800GTS 640.
100% - 650% Steigerung durch ein bisschen OC? Unwahrscheinlich.
 
Denke wohl der der GT200b mit der 4870x2 mithält oder sogar überholt

man muss bedenken das durch den shrink auf 55 nm dazu kommt noch das weniger transistoren benötigt werden und ein 256 bit interface das der chip ein ganzes stück kleiner und kühler wird sodas man den gpu und den shader takt weit in die höhe treiben kann
 
L233 schrieb:
Liebe Computerbase,

Könntet ihr bitte solche Nullaussagen sein lassen? "Spekuliert wird"? Da gehört mindestens dazugeschrieben, wer denn hier spekuliert. Seid ihr es, die spekulieren? Wenn ja, auf welcher Grundlage? Oder hat der Redakteur hier einfach das unsubstanziierte Gewäsch von einer paar Idioten in irgend einem Forum als "News" verwurstet? Oder sind das etwa handfeste Insiderinformationen?

[...]
Nochmal darauf hinzuweisen, dass es sich hier nur um Spekulationen handelt, ist sicher nicht verkehrt -- aber darüber hinaus... klick einfach mal auf "NordicHardware" - unter dem Beitrag, hinter "Quelle" und dem Doppelpunkt. ;)

Ich poste die beiden entscheidenden Absätze mal hier rein, damit einige im Eifer des Gefechts vielleicht noch mitbekommen, worüber sie hier überhaupt mit-spekulieren. :p

"Details are still hard to come by, but so far we've been hearing a couple of things. Most importantly, NVIDIA seems to have changed its mind regarding DirectX 10.1. The next GPU which should hit the market in late Q4 2008/early Q1 2009 could very well be DX10.1 compliant, and feature GDDR5 memory. This most likely means that NVIDIA will reduce the bus width to 256-bit, because 512-bit and GDDR5 just seems like a huge waste of bandwidth.

We also know that NVIDIA is preparing to launch a 40nm chip as soon as TSMC get its act together and start pushing out half-node wafers. Right now it seems like this will happen in late Q1 2009. This is most likely not the same chip as NVIDIA doesn't do new nodes on the first date with a new high-end card. Things might have changed in the Santa Clara headquarters, we don't know that certain so take it with a pinch of salt."


Quelle: NordicHardware
 
@f1delity

Genau ich hab auch OC betrieben und hab jetzt statt 10 Frames bei Crysis aufeinmal 30 :rolleyes:

Und@Daywalker1977


Ja du kannst die Taktraten in die Höhe treiben und dann? Ists ne OC Version
Kapiert es doch OC bringt keine 30% Mehrleistung wie bei der CPU also bringen die erhöhten Taktraten kaum was.
Dann kommst du mit nem übertakteten G200B und ich mit ne übertakteten HD4870X2 und dann? Wird die HD 4870X2 wieder schneller sein.;)

Mfg OC_Master
 
du weist ja das das oc bei ati sogut wie nichts bringt hab selber eine und wenn man sich den test anschaut wie man die gtx260 takten kann ergibt das eine leistungssteigerung von satten 20 %
 
Zurück
Oben