ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
bei atis Mid/lowend-karten tritt genau das gleiche problem auf dank fehlender rechenleistung, ist doch eigentlich logisch oder? besorg dir doch einfach mal eine 5670 etc. und benche damit tesselatiuon high in fullhd, bin schon gespannt auf die fps.
2. quartal endet so oder so irgendwo mitte des jahres, würde ich nicht unbedingt als langen zeitraum ansehen. und dank modularen aufbau wird die entwicklung auch keine jahre dauern, nur die verfügbarkeit ist eben nicht so gut, solange tsmc seine kapazitäten nicht erhöht, was aber momentan im gange ist.
 
Warum sollte man eine HD5670 nehmen, die ist doch gar nicht für High End Leistung ausgelegt, was willst du denn damit zeigen?
Welche Probleme, die ATI hat? directx11 bietet neben Tesselation auch noch was anderes.
Die schlechte Verfügbakeit der Nvidia Karten liegt nicht an TSMC sondern, weil Nvdia nicht mehr Karten herstellen lässt, wege Unrentabilität.
Nvidia hat in erster Linie das Problem mit keiner festen Tesselationeinheit, welche Softwareseitig festgelegt wird.
 
Keiner bestreitet dass eine HD5670 langsamer ist als eine HD5870.
Nur wird Nvidia keine Low- und Midrange Karten rausbringen wenn ein Designfehler diese zu teuer werden lässt. Auch ist die Ausbeute der Karten beim Produktionsprozess nciht alleine TSMCs Schuld, da ja sonst auch keine HD5xx Karten auf dem Markt wären. Atis Ingenieure haben halt bei der Beschreibung des Produktionsprozesses die möglichen Problem vorausgesehen und darauf reagiert. Daher könne sie auch mehr funktionierende Chips aus dem selben Prozess ziehen als Nvidia.
Siehe dazu:
http://www.anandtech.com/video/showdoc.aspx?i=3740&p=3
planned870.png

The team met and stuck with Rick Bergman’s compromise: the GPU had to be at least 2x RV770, but the die size had to come down. ATI changed the configuration for Cypress (high end, single GPU RV870) in March of 2008.

And here’s where the new ATI really showed itself. We had a company that had decided to both 1) not let schedule slip, and 2) stop designing the biggest GPU possible. Yet in order to preserve the second belief, it had to sacrifice the first.

You have to understand, changing a chip configuration that late in the game, 1.5 years before launch, screws everything up. By the time RV770 came out, 870 was set in stone. Any changes even a year prior to that resets a lot of clocks. You have to go back and redo floorplan and configuration, there’s a lot of adjusting that happens. It takes at least a couple of weeks, sometimes a couple of months. It impacted schedule. And ATI had to work extremely hard to minimize that where possible. The Radeon HD 5870 was around 30 - 45 days late because of this change.

Process vs. Architecture: The Difference Between ATI and NVIDIA

When it came time for both ATI and NVIDIA to move their high performance GPUs to 40nm, ATI had more experience and exposure to the big die problems with TSMC’s process.

David Wang, ATI’s VP of Graphics Engineering at the time, had concerns about TSMC’s 40nm process that he voiced to Carrell early on in the RV740 design process. David was worried that the metal handling in the fabrication process might lead to via quality issues. Vias are tiny connections between the different metal layers on a chip, and the thinking was that the via failure rate at 40nm was high enough to impact the yield of the process. Even if the vias wouldn’t fail completely, the quality of the via would degrade the signal going through the via.

The second cause for concern with TSMC’s 40nm process was about variation in transistor dimensions. There are thousands of dimensions in semiconductor design that you have to worry about. And as with any sort of manufacturing, there’s variance in many if not all of those dimensions from chip to chip. David was particularly worried about manufacturing variation in transistor channel length. He was worried that the tolerances ATI were given might not be met.
normaltransistor.jpg

TSMC led ATI to believe that the variation in channel length was going to be relatively small. Carrell and crew were nervous, but there’s nothing that could be done.

The problem with vias was easy (but costly) to get around. David Wang decided to double up on vias with the RV740. At any point in the design where there was a via that connected two metal layers, the RV740 called for two. It made the chip bigger, but it’s better than having chips that wouldn’t work. The issue of channel length variation however, had no immediate solution - it was a worry of theirs, but perhaps an irrational fear.
Dieser Weg ist für Nvidia wohl verbaut - denn noch grössere Chips wären wohl problematisch!
Sie brauchen also eine andere Lösung.
 
Complication schrieb:
Wie wäre es damit: Tessellation hat ihre Grenzen, doch die Probleme von Nvidia lassen darauf schließen dass die Grenzen bei deren Lowendkarten so weit nach unten verschoben werden, dass DX11 im Lowend keinen Sinn macht. Als Nvidia das erkannte - das war wohl schon letztes Jahr denn solche Probleme kommen nciht über Nacht - haben sie beschlossen keine Lowend Fermi zu produzieren.

So ein Bullshit.

silent-efficiency schrieb:
 
Schaffe89 schrieb:
Warum sollte man eine HD5670 nehmen, die ist doch gar nicht für High End Leistung ausgelegt, was willst du denn damit zeigen?


wie wärs wenn du einfach mal den thread verfolgst? es geht darum, dass kleinere karten keine so hohe tesselation-leistung benötigen, weil sie damit sowieso überfordert wären.

Welche Probleme, die ATI hat? directx11 bietet neben Tesselation auch noch was anderes.

das problem was beide haben, unterschiedliche karten bieten unterschiedliche leistung.

Die schlechte Verfügbakeit der Nvidia Karten liegt nicht an TSMC sondern, weil Nvdia nicht mehr Karten herstellen lässt, wege Unrentabilität.

eigentlich liegt es daran, das stsmc noch keine wirklich ausreichende kapazität bei 40nm geschaffen hat. 80.000 wafer pro quartal sind ein witz.

Nvidia hat in erster Linie das Problem mit keiner festen Tesselationeinheit, welche Softwareseitig festgelegt wird.

welches problem ist denn "softweareseitig" vorhanden?
 
acc schrieb:
bei atis Mid/lowend-karten tritt genau das gleiche problem auf dank fehlender rechenleistung, ist doch eigentlich logisch oder? besorg dir doch einfach mal eine 5670 etc. und benche damit tesselatiuon high in fullhd, bin schon gespannt auf die fps.


AMD Athlon 3000+ Singlecore, 2,0 GHz
Radeon HD5570
1 GB DDR 333
fullHD @ LG Plasmafernseher

mit Tessellation 9-10fps vorm Drachen
ohne Tessellation 12-13fps

Benchen funzt nicht,kein plan warum wahrscheinlich weil der Prozessor limitiert, der ist immer auf 100% Auslastung...
 
Zuletzt bearbeitet:
Complication schrieb:
Keiner bestreitet dass eine HD5670 langsamer ist als eine HD5870.

darum gehts ja auch garnicht, sondern darum dass kleinere karten schlicht unbd einfach überlastet wären, wenn sie die gleiche tesselation-last der grossen karten berechnen müssten.

Nur wird Nvidia keine Low- und Midrange Karten rausbringen wenn ein Designfehler diese zu teuer werden lässt. Auch ist die Ausbeute der Karten beim Produktionsprozess nciht alleine TSMCs Schuld, da ja sonst auch keine HD5xx Karten auf dem Markt wären. Atis Ingenieure haben halt bei der Beschreibung des Produktionsprozesses die möglichen Problem vorausgesehen und darauf reagiert. Daher könne sie auch mehr funktionierende Chips aus dem selben Prozess ziehen als Nvidia.

ati soll selbst zu anfang mit miserablen yieldraten gestartet sein, die miese verfügbarkeit der ersten zeit deutet eigentlich darauf hin.

Dieser Weg ist für Nvidia wohl verbaut - denn noch grössere Chips wären wohl problematisch!
Sie brauchen also eine andere Lösung.

für ati aber auch, was nun? zudem sollte man nvidia für nicht so blöd halten, dass sie das nicht selber wissen. dass sie kleine performante chips entwickeln können, zeigen sie beispielsweise mit tegra.
 
silent-efficiency schrieb:
Jo, ich zock auch gerne mit 12 FPS, wenn ich mal wieder gerne mich selbst quälen möchte...

Was interessant daran ist, dass Tesslation komischerweise anscheinend nicht so viel klaut.
Aber eine 5670 würde da wohl mehr erkenntnisse bringen.
 
@silent:

ach, du spielst auch so gerne benchmarks wie ich? :D

edit:

@jocotty: nur beim Marktplatz sinkt die FRamerate, bei anderen tessellierten Sachen, wie zum Beispiel die Straße und Häuserdächer hab ich keine FPS-Einbrüche. übrigens ist die 5570 eine HD5670, nur mit DDR3-Speicher.
 
Zuletzt bearbeitet:
@SE: Du zitierst es ja selber:

"Fermi is an entire architecture and it is a modular architecture that allows us to scale the feature-set depending on the market need"

Lowend/Mainstream: "Brauch keine Tesselation-->weg damit!" Wäre meine Interpretation dieser Aussage.

Mal unabhängig davon, das die lowend Karten es eh nicht packen:
Der Durchbruch für DX9 waren die endbilligen FX5200. DX9 Effekte konnteste damit vergessen, aber sie waren in den meisten OEM Kisten und somit war in der Theorie eine breite Nutzerbasis für DX9 vorhanden.

Tess. wird sich genauso nur durchsetzen, wenns auf den Billigkarten "läuft" :freak:

Wenn NVIDIA den Weg geht, den ich oben aufgezeigt habe, endet das mit Tess. genauso wie mit DX10.1. Es wird nicht angenommen, zumindest nicht der Masse der Programmierer.

Und für ne 5570 10 fps im Heaven BM find ich äußerst respektabel. :D
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Lowend/Mainstream: "Brauch keine Tesselation-->weg damit!" Wäre meine Interpretation dieser Aussage.
Tessalation ist für DX11 Voraussetzung und Nvidias Fermi-Architektur ist DX11 und wird auch im unteren Preissegment DX11 bleiben, egal wer hier was für Unsinn erzählt.
Bei den Feautre-sets die weggelassen werden könnten, könnte es da her die Fähigkeit mit doppelter Rechengenaugkeit zu rechnen, wegfallen und eventuell andere nicht DX11-benötigte Features...
 
Die Frage kannst du dir selbst beantworten, dafür brauchst du meine tief greifenden Kenntnisse nicht.

Jocotty schrieb:
Was interessant daran ist, dass Tesslation komischerweise anscheinend nicht so viel klaut.
Am besten wir führen den Benchmark auf einem Atom-Prozessor aus, dann klaut Tessalation absolut gar nichts, läuft dann aber mit noch weniger FPS ;) Schau dir seine CPU an.

Letzten Endes ist es aber auch wurscht ob es viel klaut oder wenig. Wichtig ist, ob es mit der Karte über 30 FPS kommt. Eine Karte, die zwar mit Tessalation mehr einbricht aber immer noch schneller ist, ist immer noch besser, als eine die nicht einbricht, aber dennoch langsamer ist...
 
Zuletzt bearbeitet:
Nvidia steht so dermaßen unter druck eine "viel" schnellere Karte als die ATI 5870 rauszubringen. Wenn das nicht gelingt, gehöhrt der Markt ATI. Der Grund ist, das Nvidia einen weit aus höheren Preis für diese Karten verlangen muss als ATI.

ATI hat ja mit der Einführung der 5000er Reihe Nvidia komplett das Wasser abgegraben. Wenn der neue Nvidia Chip nur gleichauf bis 20% schneller als eine ATI 5870 liegt aber min 30-100% (???) teuerer, werden die Käufer zu ATI wechseln. Vieleicht erinnern sich einige noch daran, als die ATI 4870 rauskam mussten sie den Preis der GTX 260/280 drastisch nach unten korrigieren. Genau so wird es dem Fermi ergehen. Sogar die GTX 470 muss schneller sein als die ATI 5870 denn sie wird auch teurer sein als diese.

Wenn der Fermi nicht die Überkarte wird, sieht es für uns Gamer zappenduster aus. Denn Nvidia hat dann schon die 2. Generation, preislich gesehen, keinen konkurrenzfähigen Chip mehr.
 
Schaby schrieb:
Nvidia steht so dermaßen unter druck eine "viel" schnellere Karte als die ATI 5870 rauszubringen. Wenn das nicht gelingt, gehöhrt der Markt ATI. Der Grund ist, das Nvidia einen weit aus höheren Preis für diese Karten verlangen muss als ATI.

Nein, Nvidia muss gar nichts. AMD hat nämlich die Preise dermaßen hoch, dass auch nVidia bei den Preisen locker Gewinn machen kann. Und Preissenkungen seitens AMD sind auch nicht zu erwarten, da dennen die Karten auch schon so aus den Händen gerissen werden und die Fertigungskapazitäten bei TSMC knapp sind.

https://www.computerbase.de/news/grafikkarten/knappheit-bei-40-nm-gpus-bis-mai.27064/

Erst Ende 2010, wenn TSMC seine zweite Fabrik hochgefahren hat, könnte sich was an den Preisen ändern und auch erst dann können wir drüber reden, wer was machen kann und wer was muss.
 
Der HD58xx basiert zu teilen auf der alten architectur der vorgeneration,deswegen konnte Ati ihre DX11 karten so schnell auf den markt bringen.Nvidia hingegen,entwickelt mit dem Fermi einen komplett neuen Chip,deswegen auch die verzögerungen.

Der modulartige aufbau des chips,wird auch die produktionskosten des Fermi senken.Während z.b. eine GTX260,vom chip her genauso teuer war wie eine GTX280,wird dies beim Fermi nicht mehr der fall sein,da hier von vornherein,bei der produktion, shaderblöcke oder spezielle funktionseinheiten,weggelassen werden können,der chip ist kleiner und billiger.

Was Tesselation betrifft,hatt mann ja schon die vermutung,das Nvidia diese bei lowend karten weglässt,ist ja auch nur logisch,wozu eine Tesselationeinheit,wenn der rest des chips leistungsmässig eh nicht in der lage ist,solch aufwendigen programme zu berechnen.So kann der chip sogar noch billiger werden.

Am ende heists eh abwarten und tee trinken,nvidia wirds schon schaukeln,und muss es auch,denn konkurrenz belebt das Geschäft,und fördert weiterentwicklung,sowie neue Technologien.
 
GTX 480 Unigine and 3D Vision Surround Demo (GF100)
Video

Wenn das wirklich eine GTX480 ist macht es wirklich schon was her oder was sagt ihr?
 
Tkohr schrieb:
Was Tesselation betrifft,hatt mann ja schon die vermutung,das Nvidia diese bei lowend karten weglässt,ist ja auch nur logisch,wozu eine Tesselationeinheit,wenn der rest des chips leistungsmässig eh nicht in der lage ist,solch aufwendigen programme zu berechnen.So kann der chip sogar noch billiger werden.

Nur zählen solche Low-End Karten dann nicht mehr als DX11 Karten bzw. dürfen sie nicht als solche vermarktet werden da Tesselation ein DX11 Feature ist und wer kauft bitte noch DX10 oder DX10.1 Karten wenn man eine DX11 Karte haben kann. Der Käufer will das Neueste, egal ob es für ihn einen Nutzen hat oder nicht ;)

Tekpoint schrieb:
Wenn das wirklich eine GTX480 ist macht es wirklich schon was her oder was sagt ihr?

Lies die Kommentare des Videos dann weißt es ;)
Ansonsten hat das Video genau so viel Aussagekraft wie n 3DMark Benchlauf -> gar keine :rolleyes:
 
Zuletzt bearbeitet:
Schade, dass meine Postings gelöscht wurden sind. Aber anscheinend will man hier wohl falsche Tatsachen als diese stehen lassen. :(
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben