News RV870 erst im November verfügbar

Unyu schrieb:
http://forum.beyond3d.com/showpost.php?p=1311535&postcount=1051ob per AFR oder sonstwie, war nur eine Reaktion auf "Turbostaats Klogriff Theorie".
Natürlich kann jedem Hersteller mal ein Klogriff passieren, sowohl Intel (Pentium I und die fehlerhaften Berechnung,Pentium 4), nvidia (VRAM Bug, große DIEs, geringe Ausbeute, defekte Notebookchips), ATi (HD2xxx Reihe, Powerplay Probleme) usw.

Als ob ein Hersteller vor sowas gefeit ist. :rolleyes:

Ich kann leider nicht beweisen was einige hier in ein paar Monaten schreiben werden.
Ach verdammt, kannst du mir bitte auch die Lottozahlen der nächsten Monate sagen? :rolleyes:
Aber ich kann den Tipp geben die Suchfunktion zu nutzen, den über die Die Size wurde in der Vergangenehit oft genug geschimpft.
Wenn dir diese Aussgen von mir nicht passen, dann die von rumpel01?
Den Rest solltest du nochmal überdenken, besonders den mittleren Quote.
Höre von dir immer nur Spekulationen, Gerüchte, deine Meinungsbildung und keinerlei Fakten. Danke für das Gespräch.
 
Würde mich interessieren ob die Preise der 4870 noch weiter in
Keller fallen werden, wenn im November die DX11 Karten kommen sollten ? Ich kanns
mir allerdings kaum vorstellen aktuell, 125 € für eine Powercolor 4870 mit 1 gb ist schon
ein verdammt fairer Preis ! Wobei die Preise für den RV870
mich natürlich auch interessieren würden.

egal wies kommt, muß langsam meine 3870 ablösen....:D
 
Zuletzt bearbeitet:
Hier noch einmal zusammengefasst: http://www.xbitlabs.com/news/video/display/20080526185521_ATI_and_Nvidia_Defend_Own_Approaches_to_High_End_Graphics_Solutions.html sowie http://www.anandtech.com/showdoc.aspx?i=3469&p=3

Wie gesagt: entsprechende unterschiedliche Philosophien sind vorhanden, aber über die Leistungsstärke der kommenden Chips sagt das zunächst nicht unbedingt viel aus, bereits der RV790 steht dem GT200b in seiner Rohleistung auch nicht sonderlich nach, beim RV670 war der Unterschied noch deutlich größer (etwa zum vollwertigen G92(b))... ;)
 
Zuletzt bearbeitet:
Ich hoffe, dass die neuen Grafikkarten auch zum offiziellen Launch verfügbar sind.
 
Dennoch sollte genung da sein, damit auch ohne Filteroptimierungen oder mit SSAAA die Karte Spass bringt

DAs mag dir was bringen. SSAA hat sich nun nicht etabliert.^^
Wenn man den ganzen MArkt betrachtet wird ATI genauso "billig" weiterverfahren, weil die Texturfüllrate ja nicht so wichtig ist. Genauso gehts weiter mit dem Textur Sample einsparen, was die Käuferschaft eh nicht stört.
Deswegen würd ich mal sagen ist die Füllrate auch nicht so wichtig.
Wenn alle nach SSAA schreien, dann werden sies tun, aber für die paar Leute rentiert sich das nicht.
Dass ATI keine konkurrenzfähige Karte hätte oder andersrum ist eigentlich noch nicht abzuschätzen.
Der der die langsamere hat, wirds übern Preis richten können, was aber Nvidia evtl. nicht sogut kann. Da sie teurer Produzieren.
DAs Nvidia einen Klogriff glaub ich zwar nicht, aber möglich ist alles.
Dass ATI im High End Segment mit keiner Singlekarte mitmischen kann, find ich Nonsens.
Was war nochmal mit der HD4890/HD4870 1GB? Letztere liegt vll 10 bis 15 % hinter ner GTX285.
Die konnte man kaum mit der HD3870 vergleichen, da kamen sie nun wirklich nicht annähernd ran.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@unyu
Ist es nun endlich mal gut?
Kommt man sich ja vor wie im alten Deutschland. Heil Nvidia! :freak:
Wenn Nvidia so toll ist, dann erklär mir doch mal warum die es immer noch nicht gebacken kriegen, dass deren Grafikkarten immer dann gegen die Konkurrenz absaufen, wenn man die Qualitätsverbessernden Features aktiviert.
Oder wie erklärst du dir, dass im letzten CB Vergleichstest, die GTX 295 ohne AA und AF bei 2560x1600 zuerst um 13% vorne liegt und dann mit aktiviertem AA und AF plötzlich um geschlagene 66% hinten liegt. Sogar die 4870 ist dann noch schneller als die Karte. Oder anders ausgedrückt, die zweitschnellste Single-GPU Karte der Konkurrenz schlägt die schnellste Multi-GPU von Nvidia. Sieht für mich eher nach einem blamablen Ergebnis aus.
Und das Argument, dass 2560x1600 mit 8xAA und 16xAF extrem ist, zieht auch nicht, denn bei 1920x1200 sieht das bild ähnlich aus. Ohne Features ist die GTX 295 um 11% vorne. Mit Features auf einmal 12% hinten.
https://www.computerbase.de/2009-07/test-13-aktuelle-grafikkarten/18/#abschnitt_performancerating
Schon komisch, dass die Produkte der Firma, die den Anspruch erhebt High-End Produkte zu produzieren, genau dann der Konkurrenz unterlegen sind, wenn man die High-End Features nutzen will.
Und warum schafft es Nvidia nicht mal einen Chip mit weniger Diefläche zu designen, damit die auch mal eine neue High-End Karte auf den Markt werfen können, zu der man sich nicht gleich noch ein neues Netzteil dazu kaufen muss.
Die Liste könnte man ewig fortführen. Von Nvidia zu behaupten, dass deren Produkte auf einen völlig anderen Marktbereich abzielen (High-End nehm ich mal an) ist ganz einfach lächerlich. Deren Produkte haben keinerlei schwerwiegendes Herausstellungsmerkmal gegenüber der Konkurrenz.
Genausowenig wie ATI übrigens. Bei denen würde man auch so einiges zu meckern finden.

Da könnte man z.B. anführen, dass aus Stream nichts geworden ist, dass die Treiber allgemein länger brauchen, bis sie auf die Spiele optimiert sind, dass das Mikroruckler Problem noch nicht gelöst ist, dass es lange Zeit den Powerplay Bug gab(oder noch gibt kA) ect.

Die beiden Firmen schenken sich nun wirklich gar nichts. Jede hat eine gewisse Stärke, die sie ausnutzen will um auf Kundenfang zu gehen. Nvidia hat bis jetzt versucht mit Features wie CUDA und Physx zu punkten. ATI versucht die Kunden durch Stromverbrauch und Preis zu ködern.
Das Problem das Nvidia nun aber hat ist, dass CUDA und Physx für DirectX11 Karten kein Marketingpotential mehr haben, da durch den Compute Shader nun beides auf jeder Karte möglich sein wird. Und genau diese Zwangslage in die sich Nvidia nun manövriert hat, wird die nächste Generation an Karten so interessant machen, denn nun muss Nvidia wieder gnadenlos durch Leistung punkten. Und das zu einem akzeptablen Preis. Ein einfaches Umbennen ihrer alten Karten wird ihnen nun keine neuen Kunden mehr einbringen.
 
Zuletzt bearbeitet:
Turbostaat schrieb:
Größe von 600-700mm², wobei eher wohl in Richtung 700
TDP von 300W, selbst bei 45nm Bauweise
Die Gerüchte um die Größe der Dice könnten stimmen, aber wie kommst du auf die TDP? Und selbst wenn, mehr als die Konkurrenz ist es auch nicht.

Turbostaat schrieb:
Der Verbrauch wird schon nicht niedrig sein.
Quelle?

Turbostaat schrieb:
Sprich du weißt es gar nicht, stellst hier aber als Faktum da. Du weißt gar nichts über die Chips, genauso wenig wie wir.

Turbostaat schrieb:
Ich habe hier nirgends etwas als Fakt behauptet
...
Ja bitte Fakten und keine Gerüchte oder Vermutungen.
Das steht im Widerspruch zu deinen bisherigen Äußerungen. Es kommt mir ein wenig so vor, als sollest du deine eigenen Ratschläge mal selbst berücksichtigen. Das ist nur ein hilfreich gemeinter Rat.
 
Hab ich ein A übersehen.^^
Unyu schrieb:
Weil keine meckert.
Naja ich find schon, dass viele meckern, schließlich gibts ja auch massenweise Tests dazu die das große.. Problem erörtern.

Konkurrenzfähigkeit bemisst sich nicht daran, ob Topmodell X mit Topmodell Y gleichzieht, auch wenn es viele behaupten
Sicherlich, da hast du recht.
Ich meinte es auch eher allgemein. Probleme der Karten/Bugs etc.., die evtl eine ganze Generation betreffen usw..

Und warum schafft es Nvidia nicht mal einen Chip mit weniger Diefläche zu designen, damit die auch mal eine neue High-End Karte auf den Markt werfen können, zu der man sich nicht gleich noch ein neues Netzteil dazu kaufen muss.

ATI hat in dieser Generation weniger Performance/Watt geliefert. Siehe HD4870 vs GTX260.
Trotzdem wars halt ein kleine Wiederauferstehung, aber die Aussage ist zu reißerisch und falsch.
Die Die Fläche ist sicher größer, was dann auch mehr kostet, jedoch ist der Verbrauch nicht exorbitant hoch, man siehe HD4870x2 vs. GTX295.

Das steht im Widerspruch zu deinen bisherigen Äußerungen. Es kommt mir ein wenig so vor, als sollest du deine eigenen Ratschläge mal selbst berücksichtigen. Das ist nur ein hilfreich gemeinter Rat.

Hab mir jetzt in Ruhe den Thread durchgelesen und mal analysiert was so geschrieben wird.
Turbostaats Argumente klingen wesentlich plausibler, als die von Unyu oder etc.. einen Widerspruch darin hab ich nicht entdecken können. Unyu hat so davon gesrpochen als würde es feststehen, Turbostaat hat distanzierter davon gesprochen, weswegen deine Bemerkung eigentlich nicht ganz passt.
Ich würde mich mal mit den Ratschlägen zurückhalten und eher auf Thema eingehen.
 
Zuletzt bearbeitet:
Ich sehe den Grund nicht warum sie den Launch verschieben sollten? Es wird ja von schlechter Ausbeute gesprochen und nicht von gar keiner. D.h. es werden Karten vorhanden sein, einfach nur sehr wenige. Dann wird es halt ein Paperlaunch à la 4770, aber was stört das? Diejenigen die unbedingt eine wollen werden (fast) jeden Preis dafür bezahlen, das ist doch gut für ATI.
Das Einzige Szenarion bei dem das nicht aufgehen würde ist, wenn der neue Chip nicht schneller wäre als die jetztigen z.B. weil sie zuerst einen Midrange Chip bringen. Das wäre übrigens meiner Ansicht nach gar nicht mal so dumm, weil solche Chips im Gegensatz zu High-End Lösungen in Fertig PCs verbaut werden und ich wette es gibt ne Menge PC-Hersteller, die gut was geben würden um im Weihnachtsgeschäft PCs mit Windows 7 und grossem DirectX 11 Sticker verkaufen zu können. Sofern bis dahin genügend Chips verfügbar sind, wäre das sicher ein Bombengeschäft für ATI.
 
@Denahar.
Wo habe ich Gerüchte als Fakten dargestellt? Beim Verbrauch?
....allerdings weiß man jetzt schon das dessen Stromverbrauch pervers hoch sein soll.
Hätte ich geschrieben "allerdings weiß man jetzt schon das dessen Stromverbrauch pervers hoch ist" wäre Kritik berechtigt, habe ich aber nicht, sondern das "sein soll" impliziert eigentlich schon das es eine Vermutung / Gerücht ist.

und die 300W TDP sollen von Intel selber in einer PowerPoint Präsentation erwähnt worden sein. Und bei der DIE Größe wird es einfach der Logik nach halber sein das der Verbrauch nicht niedrig sein wird, zumin nicht unter Volllast. Du wirs wohl kaum bestreiten das Intel ein Wunder vollbringt und einen 50W Verbrauch bei einem derartigen Chip vollbringt, oder?

@DerToast
Von einem Paperlaunch kann man nicht sprechen, die HD4770 war beim Release verfügbar. Genauso wie sie es immer noch ist, nur nicht in Massen.
 
Schaffe89 schrieb:
Turbostaats Arguente klingen wesentlich plausibler, als die von Unyu oder etc.. einen Widerspruch darin hab ich nicht entdecken können.
Das war gar nicht gemeint. Dis Diskussion Unya vs. Turbostaat ist eine Sache für sich. Mir ging es um Aussagen wie "der Verbrauch wird schon nicht niedrig sein" als reine Vermutung hinzustellen und ohne Quellen Larrabee zu verreißen aber im gleichen Thread, quasi im gleichen Atemzug widersprüchlich von "Diskussionskultur" zu sprechen. Das klingt sehr hypokritisch.
 
dgschrei schrieb:
Kommt man sich ja vor wie im alten Deutschland. Heil Nvidia! :freak:
Wie kommst du auf den Unfug?
Nur weil ich behaupte das Chip A nicht exakt so schnell wie Chip B sein wird? Sonst gehts noch oder?
Die Welt ist nicht ganz so einfach.

Oder wie erklärst du dir, dass im letzten CB Vergleichstest, die GTX 295 ohne AA und AF bei 2560x1600 zuerst um 13% vorne liegt und dann mit aktiviertem AA und AF plötzlich um geschlagene 66% hinten liegt.
Zuwenig VRAM + Fünftelung der z-Füllrate bei 8xMSAA im Vergleich zu 4xMSAA.

Diese SLI Karte kannst du meinetwegen behalten, ich stehe auf ordentliche Karten, wie die GTX 280.

Und das Argument, dass 2560x1600 mit 8xAA und 16xAF extrem ist, zieht auch nicht
Richtig, den es ist nicht extrem, sondern nur extrem unsinnig.
16x LowQuality AF macht auf einer GTX 295 in Verbindung mit 8xMSAA und keinerlei TAA absolut keinen Sinn.
Deine Ableitung "absaufen, wenn man die Qualitätsverbessernden Features aktiviert." ist demnach falsch.
Dies habe ich erst vor kurzem hier erwähnt: https://www.computerbase.de/forum/threads/grafikkartentests.608658/page-2
Man wollte mir nicht glauben, das solche falschen Schlüsse die Regel seien.

Und warum schafft es Nvidia nicht mal einen Chip mit weniger Diefläche zu designen, damit die auch mal eine neue High-End Karte auf den Markt werfen können, zu der man sich nicht gleich noch ein neues Netzteil dazu kaufen muss.
Die Fläche und Abwärme sind nicht das gleiche. Wenn du dies wüsstest hättest du dies angesichst der nicht besseren HD4 Abwärme nicht erwähnt.

Schaffe89 schrieb:
Naja ich find schon, dass viele meckern, schließlich gibts ja auch massenweise Tests dazu die das große.. Problem erörtern.
Eigentlich nicht, früher gabs Links bei Geizhals, gesonderte Artikel übers AF und Tests mit HQ statt default AF.

Von 2,3 Unzufriedenende in 2,3 Foren ändert sich exakt null. Da helfen auch 1000 statt 100 Posts leider nichts.
 
Zuletzt bearbeitet:
Wie schon gesagt, allein die menschliche Logik lässt nur diesen einen Schluß zu, irgendwie muss ja die Anzahl an Transistoren versorgt werden. Wenn es stimmt und es werden 2 Milliarden Transistoren dann laufen die nicht "von der Liebe und der Luft".
 
Turbostaat schrieb:
Wo habe ich Gerüchte als Fakten dargestellt? Beim Verbrauch?
Ja, denn "sein soll" ist was anderes als "könnte sein" oder man lässt es gleich bleiben, da völlig an den Haaren herbeigezogen, weil ja nur die TDP alleine und ein wenig orakeln nichts über 64-Cores einer GPU aussagt.

Turbostaat schrieb:
und die 300W TDP sollen von Intel selber in einer PowerPoint Präsentation erwähnt worden sein.
Dann nenne doch bitte Quellen wenn du solchen Aussagen in den Raum wirfst. Es sind unbestätigte, vermutete Gerüchte.

Turbostaat schrieb:
Du wirs wohl kaum bestreiten das Intel ein Wunder vollbringt und einen 50W Verbrauch bei einem derartigen Chip vollbringt, oder?
Absolut nicht, keine Sorge. ;) Ich denke, Intel wird sich einfach mit der Konkurrenz messen. Und da kommt es so oder so nicht um die absolute Leistungsaufnahme an sondern um die Effizienz, sprich Leistung/Watt. Darüber heute zu Spekulieren ist aber müßig.

Edit: Dunnigton besteht auch aus über 2 Mrd. Transistoren und hat "nur" eine TDP von 130W. Soviel zum Thema "Logik". ;)
 
Ich wusste was gemeint war, jedoch kann man sich die Zitate nicht immer so zusammenpflücken wie man sie grade braucht. Eben weil die Diskussion eine Sache für sich war.
 
Denahar schrieb:
Ja, denn "sein soll" ist was anderes als "könnte sein"
Ähm ja Deutsch LK oder was? :)

oder man lässt es gleich bleiben, da völlig an den Haaren herbeigezogen, weil ja nur die TDP alleine und ein wenig orakeln nichts über 64-Cores einer GPU aussagt.

Dann nenne doch bitte Quellen wenn du solchen Aussagen in den Raum wirfst. Es sind unbestätigte, vermutete Gerüchte.
Es sind alles Gerüchte und das sollte man schon merken wenn man alle Beiträge liest und auch auf die Wortwahl achtet. Oder muss ich jetzt vor jedem Satz "Achtung Gerücht" schreiben.

Edit: Dunnigton besteht auch aus über 2 Mrd. Transistoren und hat "nur" eine TDP von 130W. Soviel zum Thema "Logik". ;)
x86er und GPU Architektur vergleichen *hust*
 
Richtig, den es ist nicht extrem, sondern nur extrem unsinnig.
16x LowQuality AF macht auf einer GTX 295 in Verbindung mit 8xMSAA und keinerlei TAA absolut keinen Sinn.
Deine Ableitung "absaufen, wenn man die Qualitätsverbessernden Features aktiviert." ist demnach falsch.
Dies habe ich erst vor kurzem hier erwähnt: https://www.computerbase.de/forum/threads/grafikkartentests.608658/page-2
Man wollte mir nicht glauben, das solche falschen Schlüsse die Regel seien.
Das Problem ist, dass du immernur von deinen gewünschten Settings ausgehst.
Du schließt von dir immer auf die ganze Welt und verneinst jeglichen vernünftigen Ansatz, was man ja in dem Thread sieht den du verlinkst.
Was soll an den Settings den bitte unsinnig sein?
Ist halt nunmal so das ATI nen cleveren Weg geht und an der AF Qualität soweit spart wie es geht ohne das es stört.
Deswegen sind die halt in diesen Settings schneller.
Deswegen ist das Setting kein Unsinn, nur weil die Nvidias dann schlechter dastehen.
Zumal die HD4870x2 nichts dafür kann, dass sie mehr Speicher besitzt und Nvidia so dumm war und nur 896mb verbaut.
Die 8xAA Schwäche der Nvidias kommt ja auch noch dazu, um nicht immer am AF herumzuhacken.
 
Zuletzt bearbeitet:
CR4NK schrieb:
Wieviel Titel gibt es denn die DX11 nutzen werden? Also ich kenn nur einen (Colin Mcrae Dirt 2 oder wie des heißen wird) Aber da werden ja auch nur ein paar Effekte für DX11 verwendet.
Bad Company 2 soll ebenfalls DX11 unterstützen bzw. gewisse Effekte. Gerade DX11 soll sowohl Multikern-CPU- als auch Multi-GPU-Lösungen deutlich vereinfachen und beschleunigen.
 
Turbostaat schrieb:
Ähm ja Deutsch LK oder was? :)
Nee, um Gottes Willen! :p Eher gesunder Menschenverstand: etwas könnte sein und soll bzw. muss nicht so sein. Da liegen ab und an schon Welten dazwischen.

Turbostaat schrieb:
Es sind alles Gerüchte und das sollte man schon merken wenn man alle Beiträge liest und auch auf die Wortwahl achtet. Oder muss ich jetzt vor jedem Satz "Achtung Gerücht" schreiben.
Hey, du hast selbst gemault, dass die Überschrift der News fehlleitend ist und nicht "Gerücht: RV870 verspätet sich" heißt. Also, bitte mal konsequent bleiben, okay? War ja nur ein nett gemeinter Hinweis, da ich ansonsten dir schon zustimme.

Turbostaat schrieb:
x86er und GPU Architektur vergleichen *hust*
*hust* 2 Mrd. Transistoren-Vergleich *hust*

;)
Ergänzung ()

Schaffe89 schrieb:
Ich wusste was gemeint war, jedoch kann man sich die Zitate nicht immer so zusammenpflücken wie man sie grade braucht. Eben weil die Diskussion eine Sache für sich war.

Die Einstellung zu der Diskussionskultur kann und darf dabei aber nicht themenbezogen sein! Es geht nicht an, dass einmal sachlich argumentieren beim Thema X okay ist aber dann Polemik wieder "in" ist, wenn Thema Y dran ist (überspitzt formuliert). Um mehr ging es ja nicht und damit ist hier nun auch mal gut damit.
 
Zurück
Oben