News Neues von ATi und Nvidia

Geht der Trend jetzt dahin, dass man vierteljährig eine neue Grafikkarte kaufen kann? :freak:

Also ich habe mir meine GTX 280 bestellt und es ist mir jetzt scheißegal, was danach noch so alles kommt. Kaum ist die neue Generation raus, gibts schon Gerüchte von neuen Generationen...
 
H3rby schrieb:
Und selbst ATi wird im Moment mit 200€ für die HD 4870 keine großen Gewinne einfahren
Je nach RAM-Preisen dürfte AMD mit der 4870er schon ordentlich Geld scheffeln, schliesslich nutzt sie den gleichen Chip, den man auch für 135 Euro auf unzähligen 4850ern findet, kostet aber 50% mehr.
 
Killermuecke schrieb:
Glaube ich kaum, allein schon wegen der Leistungsaufnahme. Die 280gtx bleibt zwar normal unter den angegebenen 236Watt, trotzdem muss sie das aufnehmen und abführen können. Eine GX2-Karte müsste dann fast 500Watt aushalten... auch ein Refresh wird das nicht so weit senken, dass das geht.
nv wird sicher auch GX2-Karten bringen, aber dafür muss erst mal ein Mittelklasse-Chip auf dem Markt sein, von dem man auch zwei verbauen kann.

Nunja, ein geshrinkter kastrierter chip (wie gtx 260) dürfte bei der TDP keinen unterschied mehr zum Ati Penadant machen, und sogar etwas weniger verbrauchen.

Wobei ich auch der 4870 X2 sehr skeptisch gegenüber stehe. Vlt. kommtse ja mit dreislot Kühler, sieht aber bis jetzt noch nicht so aus.
 
WWNN schrieb:
Geht der Trend jetzt dahin, dass man vierteljährig eine neue Grafikkarte kaufen kann? :freak:

Also ich habe mir meine GTX 280 bestellt und es ist mir jetzt scheißegal, was danach noch so alles kommt. Kaum ist die neue Generation raus, gibts schon Gerüchte von neuen Generationen...

Freu dich darüber das deshalb die Preise momentan endlich mal wieder im Keller sind.
 
digitalangel18 schrieb:
Wobei ich auch der 4870 X2 sehr skeptisch gegenüber stehe. Vlt. kommtse ja mit dreislot Kühler, sieht aber bis jetzt noch nicht so aus.
... oder sie taktet irgendwo im Niemandsland zwischen den Einzelkarten, wie die 9800 GX2. Irgendwie muss man die geschätzt 30-50W gegenüber zwei 4870ern ja einsparen.
 
Drachton schrieb:
Aber weder Nvidia noch ATI verdienen irgendein Lob für die aktuellen Kühler ... warum lassen die nicht gleich Dritthersteller an die Karten. Irgendjemand die Kühlungsfrage übernehmen lassen, der davon Ahnung hat :)

Das Problem ist, das man für den Massenmarkt keine Karten mit überdimensionalen Kühllösungen (Karte darf max. 2 Slots belegen) rausbringen kann. Für den High-End Markt sehe ich Zukunft aber auch dreislot Lösungen...ist in den PCIE 3.0 Spezis glaub ich schon verankert. Bald brauchen wir einen neuen ATX Standard weil ausser Graka keine anderen Karten mehr aufs Board passen :D
 
serra.avatar schrieb:
gibt ja bisher kein Spiel das DirketX10 richtig ausnutzt, selbst Crysis kratzt höchstens 10% an der Oberfläche ...

Crysis nutzt doch gar kein richtiges Dx10, sonst hätte ich es ja auf Xp mit meiner Dx9 Grafikkarte auf VeryHigh gar nicht spielen können ^^

Edit:
@digitalangel18:
so sollen zukünftige High-End-Grafikkarten bis zu 300 Watt verbrauchen und drei Slots belegen.
[Quelle:PcGH]

Ps. Seit dem ich auf meinem AC S1 zwei 92mm Lüfter drauf habe, ist auch kein platz mehr im Gehäuse zu finden :p
 
Zuletzt bearbeitet:
serra.avatar schrieb:
naja die Single HD4870 konnts nicht richten ... und die HD4870X2 sieht gegen nen SLI aus
2x GTX280 auch kein Land ... und ne HD4870 gegn eine GTX280 antreten zu lassen ist quatsch, wäre ja ne irre Blamage für ATI wenn nichtmal ne DualGPU ne SingleGPU schlägt ...

und was haben alle immer mit DirektX 10.1 gibt ja bisher kein Spiel das DirketX10 richtig ausnutzt, selbst Crysis kratzt höchstens 10% an der Oberfläche ...

einzigts P/L sind ATI Karten unschlagbar ... und da lässt sich sicher mehr verdienen ... ATI/AMD kanns ja gebrauchen ...

Bitte? Ein GTX280 SLI Gespann ist sicherlich einer Triple CF HD 4870 oder Duo CF HD 4870 X2 Combo sicherlich unterlegen. Auch in Punkte Performance und Preis gesehen. Nvidia kann momentan nur über die Preisschraube kontern, was massiv den Umsatz einbrechen lässt. Da bleibt der Konsument lächelnd zurück mit einer nagelneuen Graka in der Hand.

MfG
 
digitalangel18 schrieb:
Das Problem ist, das man für den Massenmarkt keine Karten mit überdimensionalen Kühllösungen (Karte darf max. 2 Slots belegen) rausbringen kann. Für den High-End Markt sehe ich Zukunft aber auch dreislot Lösungen...ist in den PCIE 3.0 Spezis glaub ich schon verankert.

Dann schließt man sich halt mit den Herstellern zusammen, und lässt was entwickeln.
In der Wirtschaft ist des doch überall so. Man schreibt ein Projekt aus, und erwartet ausgebarbeitete Vorschläge von anderen Firmen. Derjenige der am meisten zusagt, bekommt den Zuschlag.

Ich versteh nicht, warum Grafikkartenhersteller und Kühlerspezialisten nicht endlich mal zusammenfinden. Immerhin reden wir nicht von 2 komplett fremden Themen. Dieses hingekrutze von den Stockkühlern ist an manchen Stellen und Serien einfach lächerlich...

Womöglich reichen die Kapazitäten kleinerer Firmen nicht für komplette Serien aus. Dann soll halt Nvidia/ATI auf Lizenz selbst produzieren oder, von denen produzieren lassen die derzeit die Stock-Kühler fertigen.

Das ganze hat doch nur Vorteile für beide:
Die Karte wird gelobt durch den guten Kühler - Kunde ist zufrieden. Der Kühlerspezialist verdient auch gut Geld mit der Zusammenarbeit

Der GFX Chilla braucht auch nur 2 Slots, mal als Anmerkung. Und ein neuer mit 2 flachen 120ern ist in Entwicklung (braucht auch nur 2 Slots).
 
Joa, da hast du schon recht.
 
also ich habe nichts dagegen wenn ATI & Nvidia neue Generationen bringen.
Ich bin trotzdem mit meiner 4870 zu frieden.
Aber ich bin mir sicher das Nvidia es nicht schafft schon im 1. Ouartal die 45nm fertigung rauszubringen sondern eher im 2-3.
Das wäre gut für ATI die von der fertigung zur zeit spitze sind, was viele vorteile für die
nächsten generationen bringen wird.

also peace ;)
 
Zuletzt bearbeitet:
Oh welch Wunder, Nvidia springt auch auf den Dx10.1 Zug mit auf.
Wusste ich schon vorher, da wurde aber von ein paar Forumianer immer gesagt: Dx10.1 bringt nichts.;)

Im Grunde war Nv nur nicht in der Lage Dx10.1 in die 200er einzubauen. :evillol:
Hoffe inständig das AMD signifikant Markanteile von NV wegzerren kann :P

und was haben alle immer mit DirektX 10.1 gibt ja bisher kein Spiel das DirketX10 richtig ausnutzt, selbst Crysis kratzt höchstens 10% an der Oberfläche ...
NAtürlich gibt es schon ein Spiel.
Assassins Creed supported Dx10.1 recht sinnvoll. Bloß wurde dieser Vorteil auf Druck von Nvida weggepatcht.

Geht der Trend jetzt dahin, dass man vierteljährig eine neue Grafikkarte kaufen kann?

Also ich habe mir meine GTX 280 bestellt und es ist mir jetzt scheißegal, was danach noch so alles kommt. Kaum ist die neue Generation raus, gibts schon Gerüchte von neuen Generationen...
War doch vor der Geforce 8 doch die Regel.
Wenn man etwas konstants will, muss man eben eine Konsole kaufen.
Du sagst es zwar, aber egal wird es dir mit Sicherheit nicht sein. Spätestens wenn dann die nee Generation rasu ist, wirst du dir sicherlich die Frage stellen: Bringt mit die neue Generation etwas.

Und genau deshalb: Eine Grafikkarte für 400 Euro ist immer Quatsch und Geldverschwendung. :P
 
Zuletzt bearbeitet:
Dass NV auf GDDR5 setzen will könnte auch heißen, der G200b bekommt einen 256BIT SI mit passendem, billigeren PCB, immerhin scheint DDR5 ATI auch nicht so teuer zu kommen, wie viele dachten. Also eher wie vom G80 auf G92, damit es billiger wird.
Momentan ist NV eben entweder zu teuer oder macht null Gewinn, und von mir aus kann das auch ein paar Monate so bleiben, damit wieder halbwegs ausgeglichene Verhältnisse herrschen.

P.S.: vllt. wär mit einem G200b in 55nm plus 256BIT SI auch eine X2 drin. Auch eine Möglichkeit, wieder die Leistungskrone zu erobern.
 
@captain carot
Weißt du was für ne Entwicklung das ist, nochmal komplett alles umzuwerfen?
Das wird denk ich eher weniger passieren, ... diese Entwicklung kann man für die kommende Serie einplanen, aber eine bestehende soweit umbauen halt ich für unmöglich (Preislicher Nutzen nicht vorhanden).

Außerdem hat der GDDR5 Produzent, mir fällt grad der Name net ein (Quimonda?!), einen Exklusivvertrag mit ATI. Da müsst Nvidia erstmal schauen wo man jetzt GDDR5 in ausreichenden Mengen herbekommt.
 
Wenn Nvidia wirklich DX10.1 implementieren sollte, bekommen wir doch sicherlich diese Unterstützung bei AC wieder. Hätte also auch Vorteile...
Ich kann mir eine (G)X2 Grafikkarte von Nvidia mit der aktuellen Generation nicht so recht vorstellen. Ich denke Nvidia will lieber über massive Taktraten die Leistung steigern. Das ändert aber nichts daran, dass AMD wieder vorne liegt. Die bieten einfach das beste Gesamtpaket an und das gönne ich ihnen auch.
Beim nächsten mal ist es vielleicht wieder Nvidia?
 
Also das der GT200b Nachfolger ein neues Design und gleichzeitig ein DIE-Shrink beinhaltet glaub ich nicht. Darin Fehler aus zu machen ist sehr schwierig. Ich denke das die neue Architektur auch noch in 55nm gefertigt wird. Und danach ein DIE-Shrink kommt.
 
Aber es geht doch noch früher sind die neuen Generationen im 9 Monate Takt eingeschlagen und Nvidia hat janun wirklich schon lange denn G80 Chip draussen und seit dem hat sich ja nciht soooo viel getan.

Nvidia versucht jetzt mit ihrer PR Maschinnerie denn Schaden zu begrenzen und diese ist echt gut sowie das ganze Marketing bei denen.

Aso für mich kann ich nur sagen ich habe eine 4850 für 138€ und bin voll und ganz zufrieden hatte auch vorher eine GTS 512 MB G92.
Und da sieht die kein land mehr besonders in AA nicht.
 
Nvidia hat keine Chance gegen AMD/ATI, Nvidia will Ende 2008/Anfang 2009 ihre GTX280 als übertaktete GTX290 rausbringen, Absage Nvidia, weil bis dahin ATI mit der neuen HD5000 Serie kommt: RV870 wird gegen ende des Jahres gelaunscht und Nvidia wird keine Alternative außer eine übertaktete GTX280 haben.
 
Killermuecke schrieb:
Was man bei den Gerüchten noch dazuschreiben könnte ist, dass der R700 angelich um die 500$ kosten soll (zumindest lauf tomshardware.com), also weniger als eine gtx280. Wenn das neue Modell wirklich mithalten soll, muss das nicht nur schlimm übertaktet sondern auch noch "günstig" sein -- damit ruiniert man sich die Preise seiner anderen Karten, die ja nicht billig in der Produktion sind. nv ist wirklich nicht zu beneiden -- der Aktienkurs hat sich im letzten Monat halbiert!

Das kann man aber so nicht stehenlassen (auf der Newsseite von CB), denn der halbierte Aktienkurs ist nicht - wie man hier denken könnte, nur auf die nicht mehr so erfolgreichen Grafikchips beruhend/schuldend, sondern u.a. weitreichender in den Rückstellungen für Fehlkonstruktionen und Defekte in Notebook Chips zu suchen.

News dazu - auch auf Tomshardware.com:

http://www.tomshardware.com/de/Nvidia-Aktie-Gewinnwarnung-Quartal,news-241277.html

Zudem schlagen so genannte negative Einmaleffekte in Höhe von 150 bis 200 Millionen US-Dollar zu Buche.

Das ist eine nette Beschreibung dafür :D
 
Wenn der G200b so wird wie der G92b zu G92 hat der R700 nichts zu befürchten... Auch ein G200b hätte immernoch ein >400mm² Die, was auch hier eine GX2-Karte ausschließt.
40nm werden wir aufgrund der Verschiebung nicht vor 2010 sehen. Im Herbst nächsten Jahres werden wir erstmal 45nm Grafikchips bestaunen können. Bis dahin bleibt alles bei 55nm.
 
Zuletzt bearbeitet:
Zurück
Oben