ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Lübke schrieb:
du meinst, es wäre ati egal, ob sie highendkarten für 250 € oder mittelklassekarten für 150 € verkaufen? irgendwie glaube ich, dass ati 40 % niedrigere einnahmen nicht so völlig egal sind... ;)
Ja das glaube ich definitiv - jedes Unternehmen das ich kenne interessiert sich dafür am liebsten das zu verkaufen wo sie am meisten verdienen mit dem geringsten Einsatz.
Das ist in der Gastronomie der Kaffee und Mineralwasser, und bei Grafikkarten der Lowend Bereich. Frag Intel wann sie das letzte mal eine Highend Grafikkarte verkauft haben ;)

40% Niedrigere Einnahmen/Stück sind völlig Ok wenn auch die Ausgaben 80%/Stück niedriger sind.
Complication schrieb:
Was du daran nicht verstehst, ist wo das Geld verdient wird. Die Produktionskosten einer HD5870 entsprechen denen von 10 HD5670 (grobe Schätzung von mir).
Für eine HD5870 verlangen Händler derzeit ab 350,- €
Für eine HD5670 verlangen Händler derzeit ab 75,- € x 10 = 750,- €

Der Redwood Chip hat 1/3 der Cypress Grösse und entsprechen wesentlich höhere Yields, und entsprechend kommen weitaus mehr funktionierende Dies als nur 3x so viele von einem Wafer. Wo ein Fehler einen R870 kaputt macht, bleiben bei dem selben Fehler noch 2 funktionierende R830 übrig. (Natürlich nur grob vereinfacht :) )

Das Geld wird nicht mit der HD58xx verdient, und Nvidia ist dabei im Midrange Fuss zu fassen - hier etwas nachzulegen macht aus Marktsicht sehr viel Sinn wenn ich kaum 40nm-Kapazitäten habe und das meiste Geld verdienen will damit.
 
Complication schrieb:
Nvidia hat hier ja weitaus mehr Kapazitäten derzeit reserviert bei TSMC.

Das hat Charlie deutlich als unzutreffend bezeichnet.

Neo_Xsendra schrieb:
Nach wie vor behaupte ich, das PhysX ein volelr erfolg würde, wenn NV sich dazu herniederließe zu sagen "Uns ist egal, welche hauptkarte drin ist, so lange eine NV karte als PhysX karte im rechner ist" und cih glaub auch, das es sich rechnen würde für nv.

Na schön, wo soll ich den extra Slot an mein µATX Baord anlöten? Das ist nämlich "voll". Selbst wenn das gehen würde, würde mich nichts dazu bewegen, zwei Stromverschwender in meinen PC zu bauen, von NVIDIA schon gleich gar nicht.

Neo_Xsendra schrieb:
Und im verhältniss zur grafik, wird es auch in der relation immer weniger mMn sind wir von realistischer Physik in spielen noch 2 Jahre weiter entfernt, als von Raytracing in games. (und damit etwa 3-4 Jahre) ich bin immernoch gespannt ob ich recht behalte damit.

Auch dank Physix. Denn anstatt echter Physik, die Einfluss aufs Spielgeschehen nimmt, macht Physx nichts weiter als "Effekt-Physik", ist also nur ein grafisches Gimmick.
Raytracing dauert noch über 10Jahre. Selbst wenns die Hardware gäbe, müsste die erstmal soweit verbreitet sein, das es sich auch lohnt die Software dafür zu entwickeln. Also eher Richtung 20 Jahre. Höchstens die Konsolen könnten da den Durchbruch schaffen, weils da ja relativ egal ist, da man die Hardware eh neu kaufen muss. Ob sichs allerdings lohnt, PS5 only zu programmieren? (ich vermute mal, das man zwei komplett unterschiedliche Grafikengines benötigt)

Neo_Xsendra schrieb:
geplant ist die 485 als gf100b im vollausbau. der gf100b soll ne überarbeitung bekommen wie wir sie am gf104 schon gesehen haben.

Schreib doch mal bitte nicht so, als ob du die Produkte entwickeln würdest ;)

In dem Sinne wie du GF100b verwendest, müsste der GF100 von Grund auf neu designt werden, was zu 99% ausgeschlossen werden kann (zumindest wärs dann kein GF100 mehr). GF100b in der ursprünglichen Bedeutung (nach NVIDIA Historie) wäre ja einfach ein Dieshrink. Klar, der müsste als Vollausbau möglich sein. Aber ob das dann noch jemand interessiert?
Die andere Möglichkeit wäre zumindest eine B1-Revision, die ich auch für sehr unwahrscheinlich halte, einfach weil NVIDIA nix von Plan B hält und 28nm eigentlich demnächst online gehen sollte. Tja, Pech gehabt. Nu is zu spät.

Für mich sind alle 3 Möglichkeiten sehr unwahrscheinlich.

Ein Refresh brauch im Normalfall 9 Monate, insofern denke ich kann man dann auch gleich auf 28nm gehen. Zumal noch nicht mal das komplette Lineup draußen ist von NVIDIA, man sieht ja wie lange es bei ATI gedauert hat (und die waren verdammt schnell)

-3 Monate Desktop-Launch
-danach die fürs Notebook
-jetzt noch an der perfekten Verfügbarkeit arbeiten und im Übrigen den Refresh vorbereiten.

NVIDIA kocht auch nur mit Wasser, woher sollen die ganzen Wunderchips denn kommen?

Complication schrieb:
Ja das glaube ich definitiv - jedes Unternehmen das ich kenne interessiert sich dafür am liebsten das zu verkaufen wo sie am meisten verdienen mit dem geringsten Einsatz.
Das ist in der Gastronomie DAS BIER, der Kaffee und Mineralwasser, und bei Grafikkarten der Lowend Bereich.

fett: meine Ergänzung ;)
 
Hmm, wenn tatsächlich keine HighEnd dieses Jahr kommt, weiß ich nicht was ich nen bekannten raten soll.

Sein Rechner ist fertig und immo nutzt er onboardchip des mainboards.

Die HD5850 ist für 250 bei Amazon bestellt mit langer Lieferzeit.
Habe ihm gesagt, dass umso später die Karte kommt, umso mehr würde ich sie raten zurückzuschicken.
Ab September wäre es wohl ratsam sie zurückzuschicken.

Aber wenn die neue Highend Generation gar nicht im Oktober kommt...
 
KAOZNAKE schrieb:
Na schön, wo soll ich den extra Slot an mein µATX Baord anlöten? Das ist nämlich "voll". Selbst wenn das gehen würde, würde mich nichts dazu bewegen, zwei Stromverschwender in meinen PC zu bauen, von NVIDIA schon gleich gar nicht.

Schließ doch nicht so von dir auf andere. Ich kenn einige die sich ne "kleine" nv karte zu ihrer ati stecken würden, wenn sie damit physx bekommen könnten. Sicher, man kann es umgehen, aber viele machen sich nicht die mühe, da zu wenige intressante titel aktuell.

KAOZNAKE schrieb:
Auch dank Physix. Denn anstatt echter Physik, die Einfluss aufs Spielgeschehen nimmt, macht Physx nichts weiter als "Effekt-Physik", ist also nur ein grafisches Gimmick.
Raytracing dauert noch über 10Jahre. Selbst wenns die Hardware gäbe, müsste die erstmal soweit verbreitet sein, das es sich auch lohnt die Software dafür zu entwickeln. Also eher Richtung 20 Jahre. Höchstens die Konsolen könnten da den Durchbruch schaffen, weils da ja relativ egal ist, da man die Hardware eh neu kaufen muss. Ob sichs allerdings lohnt, PS5 only zu programmieren? (ich vermute mal, das man zwei komplett unterschiedliche Grafikengines benötigt)

Ich hab nie behauptet, das die art wie mit physx vorgegangen wurde, dabei hilfreich war. ändert aber nix an meiner aussage. und zu raytracing: ich hab irgendwo hier im forum mal meine rechnung aus uni zeiten zum besten gegeben. der errechnete eventhorizont trifft in 2-3 jahren ein. die rechnung ist gut 10 jahre alt und seit dem bin ich gespannt, ob ich recht behalte damit. wobei ich damals auch von mehr jahren ausgegangen bin, aber sowohl die anzahl der cpu kerne, als auch die leistung der gpu sind derart stark gestiegen, dass wenn ich von meiner rechnung ausgehe, in 2-3 jahren mit den ERSTEN Raytracing engines rechne.

KAOZNAKE schrieb:
Schreib doch mal bitte nicht so, als ob du die Produkte entwickeln würdest ;)
[/color]

Ich schreib nicht so als ob ich sie entwickel. ich geb regelmäßig zu protikoll, dass übersetzungsfehler und missverständnisse unterlaufen sein können (auch wenn ich zwischendrin mal scherzhaft gesagt hab, das ich mein englisch so schlecht verstehe, denke ich doch sollte klar ersichtlich sein, dass ich nicht direkt daran mitarbeite :/ )

KAOZNAKE schrieb:
In dem Sinne wie du GF100b verwendest, müsste der GF100 von Grund auf neu designt werden, was zu 99% ausgeschlossen werden kann (zumindest wärs dann kein GF100 mehr). GF100b in der ursprünglichen Bedeutung (nach NVIDIA Historie) wäre ja einfach ein Dieshrink. Klar, der müsste als Vollausbau möglich sein. Aber ob das dann noch jemand interessiert?
Die andere Möglichkeit wäre zumindest eine B1-Revision, die ich auch für sehr unwahrscheinlich halte, einfach weil NVIDIA nix von Plan B hält und 28nm eigentlich demnächst online gehen sollte. Tja, Pech gehabt. Nu is zu spät.
In dem sinne wie ich gf100b verwende, könnte ich ihn auch gf300a oder gf1000z nennen. ich weis nicht unter welchem codenamen diese überarbeitung läuft, daher dachte ich ich nehme eine bezeichnung, welche klar wiederspiegelt, dass es eine überarbeitung ist. ergo gf100b.
Du solltest allerdings bedenken, das wenn man eine solche überarbeitung mit einen shrink verbindet, man das projekt deutlich verzögern müsste und ERNEUT einen shrink mit einer überarbeitung gleichzeitig macht, womit man in dieser gen schon wirklich negative erfahrungen gemacht hat.

KAOZNAKE schrieb:
Für mich sind alle 3 Möglichkeiten sehr unwahrscheinlich.

Ein Refresh brauch im Normalfall 9 Monate, insofern denke ich kann man dann auch gleich auf 28nm gehen. Zumal noch nicht mal das komplette Lineup draußen ist von NVIDIA, man sieht ja wie lange es bei ATI gedauert hat (und die waren verdammt schnell)

-3 Monate Desktop-Launch
-danach die fürs Notebook
-jetzt noch an der perfekten Verfügbarkeit arbeiten und im Übrigen den Refresh vorbereiten.

NVIDIA kocht auch nur mit Wasser, woher sollen die ganzen Wunderchips denn kommen?

Natürlich kochen sie nur mit wasser. aber nachdem man den gf102 und gf106 ja schonmal eingestampft hat, konnte man vermutlich seine ressourcen auch für dieses problem nutzen.
 
Neo_Xsendra schrieb:
aber mal zu PhysX selbst: an sich ist der verbrauch eigendlich ganz ok, für das was es tut.

Wie war das gleich? http://www.gamestar.de/spiele/mafia-2/artikel/technik_vorschau_mafia_2,43581,2316352.html

"Ohne die erweiterten, Nvidia-exklusiven Physik-Effekte läuft Mafia 2 nämlich bereits mit in die Jahre gekommenen Grafikkarten, wie etwa einer Geforce 8800 GT oder einer Radeon HD 4770 flüssig

Ganz anders sieht es mit PhysX aus. Selbst High-End-Rechner mit einer Geforce GTX 480 erreichen nicht in jeder Situation flüssige Bildwiederholraten. Gerade Explosionen, bei denen viele Trümmer durch die Luft gewirbelt werden, zwingen PCs ohne zweite, für PhysX abgestellte Grafikkarte in die Knie." -Zitat gamestar-

Ist ja eine ganz tolle Sache mit PhysX. Besitzer einer NVIDIA-Karte werden damit ja geradezu aufgefordert eine zweite einzubauen. Da geht die Politik von NVIDIA also hin. :rolleyes:

Aber an den screenshots sieht man ja ganz gut, dass PhysX imgrunde nur eine Spielerei ist, die ein paar Partikel mehr hinzufügt und kaum wirklich etwas tut. Die Grundphysik bleibt bestehen. Gottsei Dank also kein Grund eine NVIDIA-Karte zu kaufen.
 
Zuletzt bearbeitet:
Das war doch schon immer so. Konsolen-Optik/-Physik plus mehr (zumeist Partikel-)Effekte.
 
Steht bei der Gamestar auch dabei, welchen Grad an PhysX sie gewählt haben? Ich wage nämlich zu bezweifeln, dass man entweder gar keins oder gleich die volle Keule bekommt. Da sollte es auch Abstufungen geben, die ein spielbares Erlebnis auch für Performanceklassen ermöglichen.

Konsolen-Optik/-Physik plus mehr (zumeist Partikel-)Effekte.

Sind Partikel denn nicht auch Physik? *musste jetzt sein :D

Was mir persönlich wichtig wäre, ist, dass man bei der "Konsolenoptik" wenigstens satte BQ zuschalten können sollte. Ingame.
 
@conehead7:
Aber an den screenshots sieht man ja ganz gut, dass PhysX imgrunde nur eine Spielerei ist, die ein paar Partikel mehr hinzufügt und kaum wirklich etwas tut. Die Grundphysik bleibt bestehen. Gottsei Dank also kein Grund eine NVIDIA-Karte zu kaufen.

weist du, wie viel leistung antialiasing frist? benutzt du antialiassing? in wie weit nimmt antialiassing denn einfluss auf den spielverlauf? ;)

physx ist (bisher) tatsächlich ein grafisches feature. zum glück nimmt es keinen einfluss auf das spiel selbst, denn sonst wären spiele wie mafia 2, metro 2033 und batman nicht mit einer ati spielbar und man müsste zwingend eine nvidia karte dafür haben. denke mal, dass wäre keine sehr wünschenswerte entwicklung, oder?
 
wird zeit dass eine neue konsolengeneration raus kommt, mit octacores und HD6000 oder GTX500 engine.

dann würde es auch endlich wieder einen satten sprung in der BQ geben.

Bis auf die wenigen Ausreißer wie Metro2033, Dirt 2 oder Crysis tat sich ja wenig in den letzten Jahren.

gruß
 
@Lübke

Tja, ich brauche nur 4-8x AMSAA und das frisst kaum, reicht in dem meisten Fällen auch aus. PhysX hingegen zwingt die Rechner in die Knie, das ist nicht erst seit gestern der Fall.

Es zeigt einfach nur, dass PhysX sich nicht durchsetzen wird. Wer möchte sich schon nur für PhysX ein Gespann in den Rechner bauen, was schon halb soviel verbraucht wie eine Waschmaschine.
 
conehead7 schrieb:
Wie war das gleich? http://www.gamestar.de/spiele/mafia-2/artikel/technik_vorschau_mafia_2,43581,2316352.html

"Ohne die erweiterten, Nvidia-exklusiven Physik-Effekte läuft Mafia 2 nämlich bereits mit in die Jahre gekommenen Grafikkarten, wie etwa einer Geforce 8800 GT oder einer Radeon HD 4770 flüssig

Und das schlimmste ist dass die mit PhysX erstellten Effekte teilweise optisch so schlecht sind, dass z.B. hier die Glassplitter aussehen als wären es zusammen geknüllte Papierkugeln. Sie mögen sich mit dem Fuss bewegen, doch die Optik ist sehr unrealistisch finde ich. Die zerstörten Glasbausteine hingegen sind völlig flach texturiert ohne die geringste Tiefe in den Löschern.

Das ist mir aber schon bei vielen Umsetzungen aufgefallen - da muss nun mal der Programmierer auch wissen was er damit macht. Oft kommt es mir sehr lieblos verwendet vor, nach dem Motto einfach mal irgendwo eingebaut, auch wenn keine Notwendigkeit besteht.

944x531-jpg.194871
 

Anhänge

  • 944x531.jpg
    944x531.jpg
    166,9 KB · Aufrufe: 691
guck dir mal die tests an und vergleiche aa aus mit 4-8fach msaa. also wenn das wenig ist, weis ich auch nicht mehr ;)

zur umsetzung von physx: du hast vollkommen recht, dass bei einigen spielen der rechenaufwand einfach zu hoch ist. da ist scheinbar noch rein gar nichts optimiert.

ich denke die optimale lösung wäre, wenn agaia wieder unabhängig wäre und einen physx-chip entwickeln würde, den ati und nvidia einfach als zusatzchip auf ihren grafikkarten verbauen könnten (und dann natürlich auch würden). damit könnte die entwicklung endlich vollkommen unabhängig und für alle zugänglich vorranschreiten. die verbreitung käme dann von ganz allein.
nachteil: billig-grafikkarten würden sicherlich keinen physx-chip bekommen...

@Complication: wie die glassplitter aussehn hat nichts mit physx zu tun. physx berechnet die kollisionen und die daraus resultierenden flugbahnen. gerendert werden die objekte wie alle anderen auch.
 
Lübke schrieb:
@Complication: wie die glassplitter aussehn hat nichts mit physx zu tun. physx berechnet die kollisionen und die daraus resultierenden flugbahnen. gerendert werden die objekte wie alle anderen auch.
Nein werden sie nicht - die Objekte sind ja nach wie vor beweglich wenn da drüber gelaufen wird - PhysX Objekte die ruhig liegen sind immer noch PhysX Objekte. Du siehst doch welche Partikel fehlen wenn du dort unter dem Link zwischen PhysX an/aus umschaltest. In diesem Beispiel hat der Programmierer einfach zu grobe Partikel verwendet um sich Arbeit zu sparen, und Transparenzeffekt völlig weg gelassen.
 
Und das schlimmste ist dass die mit PhysX erstellten Effekte teilweise optisch so schlecht sind, dass z.B. hier die Glassplitter aussehen als wären es zusammen geknüllte Papierkugeln.
Dann muss man es auch nicht verwenden.

BTW
Ich finde AO unötiger als PhysX
 
In diesem Beispiel hat der Programmierer einfach zu grobe Partikel verwendet um sich Arbeit zu sparen, und Transparenzeffekt völlig weg gelassen.

soweit stimmt es. der rest allerdings nicht. gerendert werden die objekte wie alle anderen auch. mit physx kann man keine objekte rendern, physx ist nur für die bewegung zuständig. das aussehen wird also nicht dadurch beeinflusst. wenn sich der designer bei geskripteten szenen mehr mühe gibt als bei den objekten in der physix-version, dann sieht man das natürlcih auch. andersrum kann man auch die objekte sehr detailiert darstellen und eine lieblos dahingeklatschte geskriptete scene als alternative verwenden. dann hat man mit physx deutlich schönere partikel. trotzdem hat das mit physx nix zu tun ;)
 
Du sagst es stimmt der Rest nicht und korrigierst etwas das ich nie behauptet habe - toll.

Die Objekte die in dieser Szene mit Hilfe von PhsyX dargestellt werden sind nicht vorhanden wenn PhysX abgeschaltet wird - daher beziehe ich mich auf diese speziellen Objekte, ohne ein einzige Aussage darüber welche Rendertechnik zusätzlich verwendet wird für deren Darstellung - es ist auch völlig unwichtig welche Technik der Programmierer hier lieblos verwendet. Er verwendet sie auf diesen PhysX-Objekten, die eben nicht auf allen Karten zu sehen sind! Und ohne sieht die ganze Szene deshalb realer aus.

Beispiel:
Das ist falsch der Himmel ist in Wirklichkeit blau. (du hast zwar nie was anderes Behauptet, doch ich kann dich ja mal korrigieren und so tun als ob ;) )
Bitte keine physikalischen Belehrungen über Farbspektren, Reflektionen und tatsächliche Spektren - es ist NUR ein Beispiel der Rhetorik.
 
ich war davon ausgegangen, dass es die objekte auch ohne physx gibt, aber ist auch nebensächlich. deine kritik an physx war, dass die objekte schlecht aussehen und meine antwort, dass das aussehen der objekte nichts mit physx zu tun hat. darauf hast du entgegnet, dass diese auch wenn sie da liegen noch physikalisch berechnet werden. das ändert ber immer noch nichts daran, dass ihr erscheinungsbild nichts mit physx zu tun hat und der kritikpunkt somit unzutreffend ist.

denke das ist nachvollziehbar, oder?
 
Das die Objekte schlecht aussehen habe ich nicht PhysX angekreidet sondern der lieblosen Arbeit des Programmierers dieser speziellen Szene - dass dies weitaus besser geht lässt sich an vielen anderen Beispielen sehen.

Man muss auch lesen was jemand kritisiert bevor man das Schwert zieht um die Ehre der PhsyX Prinzessin zu verteidigen:
Das ist mir aber schon bei vielen Umsetzungen aufgefallen - da muss nun mal der Programmierer auch wissen was er damit macht. Oft kommt es mir sehr lieblos verwendet vor, nach dem Motto einfach mal irgendwo eingebaut, auch wenn keine Notwendigkeit besteht.
Dass hier keine einzige Silbe Kritik an der PhysX Technik zu lesen ist sollte dir doch mittlerweile auffallen, nachdem ich es nun zum dritten mal extra schreibe :rolleyes:
Was soll das ganze hin und her?
 
dann verstehe ich deinen einwand nicht. was hat die grafik des spiels in diesem thread zu suchen, wenns dabei weder um grafikkarten noch um deren technologien geht? :freak:

solltest du deine spielekritik dann nicht eigentlich im entsprechenden thread äußern?

also halten wir fest, es gibt ein spiel in dem dir die grafik nicht zusagt und beenden das offtopic hier, ok?

zurück zum thema: du warst der meinung, dass ati mit den mutmaßlichen 6750 für 150€ mehr verdienen könne, als mit einer 5850 für 250 €. jetzt bin ich mal gespannt, was du glaubst, dass die beiden gpus ati wohl kosten... du willst also einen verkaufserlös von 100,- € wett machen und die gpu der 6750 kostet auch geld.
deine einschätzung dass ein cypress in der herstellung gleich 10 mal mehr kosten soll als ein redwood müsstest du mir auch bitte mal erläutern. woher diese eklatante differenz bei gleicher architektur und fertigung? die chipgröße allein kann das wohl kaum ausmachen...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben