ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Nein, nein, so war das natürlich nicht gemeint; Komiker.^^

Ich wollte rein auf die Ähnlichkeit des Vorgehens beim RV770 hinweisen, wo man ja dann den RV790 nachgeschoben hat. Dass bei einer optimierten 5870 wohl mehr Veränderungen vorgenommen werden würden, erscheint mir als naheliegend.
 
@Complication: soetwas wird aus gutem grund nicht gemacht. beispiel:
angenommen nvidia hätte erst die gtx460 gebracht im 200 € segment und würde das 300 € segment mit der gtx285 besetzen. was glaubst du, werden potentielle kunden, die bereit sind 300 € für eine grafikkarte auszugeben wohl kaufen?
nvidia hätte die fertigungsprobleme sicherlich leichter an nem kleineren chip wie dem gf104 in den griff bekommen, bzw höhere yields erreicht als mit dem deutlich komplexeren gf100, dennoch haben sie als erstes das flagschiff gebracht mit allen bekannten problemen im vorfeld.

und so würde sich auch ati mit billigen karten die eigenen karten der nächst teureren klasse aus dem markt drängen. dann kaufen die leute für 80 € ne 6670 statt für 110 € ne "alte" 5750...

es wäre vom wirtschaftlichen standpunkt wenig ratsam, die eigenen hochpreisigen produkte durch eigene niedrigpreisige produkte als veraltet dastehen zu lassen, da es absatzschädigend ist.
 
Zuletzt bearbeitet:
Lübke schrieb:
es wäre vom wirtschaftlichen standpunkt wenig ratsam, die eigenen hochpreisigen produkte durch eigene niedrigpreisige produkte als veraltet dastehen zu lassen, da es absatzschädigend ist.

Genau, das hat NVIDIA in der Vergangenheit ja bereits erfahren dürfen. Siehe die 8800GTX/ Ultra mit dem G80, welcher solangsam von der kleineren, neuen 8800GT mit dem G92 überholt wurde und das für wesentlich weniger Geld.

Der G80 wurde aufgrund des VRAMbugs getauscht, da dieser sich hauptsächlich bei den kleinen GTS Modellen bemerkbar gemacht hatte, aufgrund des knapp bemessenen Speichers. Plötzlich war der G92 aber sogut, dass die eigenen Topmodelle im Schatten standen. Denke so ein Logikfehler wird ATI nicht passieren.

Wenn sie Produkte auf den Markt bringen, dann aber mit Hand und Fuß.
 
Zuletzt bearbeitet:
Eine 8800 Ultra ist idR schneller als eine 8800 GT, die 8800 GTX liegt dank des größeren VRAMs auch oft vorne.

Alle Karten von GF8 bis GTX2xx leiden unter dem "VRAM-Bug" - gerade bei 512er Karten wie der 8800 GT sehr ärgerlich.
 
sicher? wurde der nie gefixt? könnte der bei den gtx4xx eventuell auch noch vorhanden sein?
 
Der VRAM-Bug betrifft die nachfolgenden Generationen aber kaum noch. Hatte eine 9800GT und da war selbst in 1920x1080 mit Max Details nichts mehr von zu spüren.

Ich glaube kaum, dass der Fermi den VRAM-Bug hat, obwohl das ja mittlerweile wie ein Monopol für NVIDIA geworden ist. Selbst wenn, dann haben die Karten immernoch genug Speicher um sich behaupten zu können.
 
Fehlendes DMA, daher "Bug" in Anführungszeichen. Fermi nutzt DMA.
 
die 8800 GTX liegt dank des größeren VRAMs auch oft vorne.

Ausschließlich dank des Mehrs an VRAM? Also in etwa wie bei den beiden GTX460 Versionen?
Könntest du mir erklären, warum da ausschließlich der VRAM für ein LEistungsplus sorgt?
 
Lübke schrieb:
es wäre vom wirtschaftlichen standpunkt wenig ratsam, die eigenen hochpreisigen produkte durch eigene niedrigpreisige produkte als veraltet dastehen zu lassen, da es absatzschädigend ist.

Du meinst so ähnlich wie die erste 40nm AMD Karte die HD4770 war? ;)
Diese Midrange Karte die dafür gesorgt hat dass AMD die 40nm Produktion besser in den Griff bekommt und die HD5000 Serie optimieren konnte Aufgrund der Erfahrungen.

Also macht das deiner Meinung nach keine Sinn neue Fertigungen und Architekturen erst im Midrange zu probieren wenn es sich als ein solcher Volltreffer erwiesen hat genau vor 1 Jahr?

Ich hoffe dass AMD das anders sieht und positive Erfahrung erneut nutzt und weiter ausbaut, anstatt schon widerlegte Theorien auszuprobieren.

Was du daran nicht verstehst, ist wo das Geld verdient wird. Die Produktionskosten einer HD5870 entsprechen denen von 10 HD5670 (grobe Schätzung von mir).
Für eine HD5870 verlangen Händler derzeit ab 350,- €
Für eine HD5670 verlangen Händler derzeit ab 75,- € x 10 = 750,- €

Der Redwood Chip hat 1/3 der Cypress Grösse und entsprechen wesentlich höhere Yields, und entsprechend kommen weitaus mehr funktionierende Dies als nur 3x so viele von einem Wafer. Wo ein Fehler einen R870 kaputt macht, bleiben bei dem selben Fehler noch 2 funktionierende R830 übrig. (Natürlich nur grob vereinfacht :) )

Das Geld wird nicht mit der HD58xx verdient, und Nvidia ist dabei im Midrange Fuss zu fassen - hier etwas nachzulegen macht aus Marktsicht sehr viel Sinn wenn ich kaum 40nm-Kapazitäten habe und das meiste Geld verdienen will damit.
Und wenn man sich anschaut in welcher kurzen Zeitspanne AMD die gesamte Produktlinie der Evergreens in den Markt gebracht hat im Vergleich zu der zähen DX11 Einführung von Nvidia, dann wird wohl das passieren was ich im Januar irgendwo schon geschrieben habe, dass AMD die komplette HD6000 Serie auf dem Markt hat bevor Nvidia seine komplette Serie auf den Weg gebracht hat.
 
Fetter Fettsack schrieb:
Ausschließlich dank des Mehrs an VRAM?
Könntest du mir erklären, warum da ausschließlich der VRAM für ein LEistungsplus sorgt?
Weil die 8800GT ansonsten nicht langsamer ist. Rechenleistung und Texelfüllrate sind in etwa identisch. Lediglich die Speicherbandbreite und vor allem die Speichermenge ist größer.
Und da 512MB knapp bemessen sind, macht der öfters mal schon nen großen Unterschied.
 
Wenn man nach heutigen Verhältnissen geht, macht es wirklich nen Unterschied aber ich sprach von damals,
wo man noch in 1280 oder 1650er Auflösungen gespielt hat, der VRAM also nicht alles entscheidend war.
 
Also macht das deiner Meinung nach keine Sinn neue Fertigungen und Architekturen erst im Midrange zu probieren wenn es sich als ein solcher Volltreffer erwiesen hat genau vor 1 Jahr?

nein das macht keinen sinn. was du meinst hat nichts mit architekturen zu tun, denn die 4770 hatte die gleiche architektur wie alle hd4k. um dein beispiel zu berichtigen: wenn ati die 5770 statt der 4770 gebracht hätte, dann hätten sie ne neue architektur im mittelfeld getestet. wie sich das auf die verkaufszahlen der 4870 ausgewirkt hätte, kannst du dir denke ich mal selbst denken, oder`?

wenn du aber mit der hd4770 als hd4k argumentierst, bestätigst du meine aussage, der du ja wiedersprechen wolltest, nämlich dass dieses vorgehen nur sinn machen würde, wenn die si nur die vorhandenen hd5k als neue hd5k ersetzen und eben nicht als hd6k.

und mal nebenbei: lies dir mal die verkaufsberatungen zu 4830 und 4850 vor und nach erscheinen der 4770 durch. fällt dir was auf?^^

also du solltest dich schon für einen standpunkt entscheiden. ;)
 
Zuletzt bearbeitet:
@ bensen

Bzgl. Speichergröße: wenn sonst alles gleich bei den Karten ist, dann müssten sie bis zu dem Punkt, wo der VRAM überquillt, eigentlich gleichschnell sein.
 
Lübke schrieb:
also du solltest dich schon für einen standpunkt entscheiden. ;)
Ehrlich gesagt habe ich überhaupt nichts verstanden von deinem Beitrag - auch nicht wo du zwei Standpunkte bei mir entdeckt hast zwischen denen ich mich entscheiden müsste? :(

Ob ich eine neue Architektur, eine neue Fertigung oder eine neue Verpackung testen will für eine komplette folgende Serie spielt doch keine Rolle - das einzige was ich mit dem Beispiel HD4770 sagen wollte ist, dass es kein Problem ist eine Midrange Karte zuerst mit etwas neuem auf dem Markt zu bringen.
 
die ursprungsaussage von mir dazu war, dass der einzige logische grund dafür, dass angeblich nur die kleineren modelle des si dieses jahr kommen sollen, sein kann, dass diese die bisherigen unter der gleichen bezeichnung (hd5k) ersetzen.
andersrum ausgedrückt: es würde imho keinen sinn machen, die si als hd6k zu bringen und dann nur die kleinen karten, da sie die höherpreisigen hd5k-modelle obsolent machen würden. selbst mit gleicher bezeichnung ist das schon nicht ganz unproblematisch (siehe 8800gts 640 vs. 8800gt, 4830 vs. 4770). aber wer kauft denn noch eine "veraltete" 5850, wenn es viel billiger eine neue 6750 gibt?

und darum meine aussage: falls die news stimmen sollte (muss sich ja erstmal herausstellen), wäre die einzig logische entscheidung, die kleinen si als hd5k zu bringen und nicht als hd6k.

nachvollziehbar?
 
Jetzt verstehe ich was du meinst :)
Ok Groschen gefallen - zustimmen kann ich dir aber nicht. Ich denke nicht dass es Probleme gäbe wenn mal nicht die schnellst Karte einer neuen Serie raus kommt, weil AMD bewiesen hat dass sie eine Serie komplett in 3 Monaten in den Markt bringen können. So etwas gab es ja noch nie zuvor.

Der Markt der HD5870 ist sehr gesättigt - wer die wollte hat sie schon, und die Verkaufszahlen der Spitzenmodelle steigen erst wieder wenn die Preise fallen - AMD könnte das als Gelegenheit nutzen die Preise da oben fest zu tackern und somit den Vergleich der kommenden HD6870 mit einem teuren Vorgängermodell dazu benutzen auf Nvidias Preisnivaeu vorzudringen.
 
Und deshalb kann man auch ganz entspannt so viele SI Karten ins Weihnachtsgeschäft geben, wie man bauen kann.
Die gehen dann weg wie warme Semmeln und alle anderen kaufen trotzdem noch die alten Karten, weil ja was unter den Baum muss...

Grüße vom:
Jokener
 
du meinst, es wäre ati egal, ob sie highendkarten für 250 € oder mittelklassekarten für 150 € verkaufen? irgendwie glaube ich, dass ati 40 % niedrigere einnahmen nicht so völlig egal sind... ;)

aber warten wirs ab. wenn ihr glaubt, dass erst die kleinen hd6k kommen und ein viertel jahr lang den ati-highend-karten den rang ablaufen werden, bevor ati auch da mal was von der gleichen generation bringt, bitte. ich für meinen teil glaube, dass wenn ati wirklich nur kleine si bringt, diese als hd5k vermarktet werden und wenn si doch als hd6k erscheint, von anfang an die hd6800 dabei sein wird. alles andere wäre für mich nicht sinnvoll.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben