ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Ja, es ist die drive Current leakage gemeint bzw. der Tunnelstrom: http://de.wikipedia.org/wiki/Tunnelstrom

Je größer der K-Wert des Dielektrikum, desto dicker kann man es machen ohne die Schaltgeschwindigkeit des Transistors negativ zu beeinflussen. Je dicker das Dielektrikum desto kleiner der Tunnelstrom. Oder andersherum, bei gleichem Tunnelstrom kann man schnellere Transistoren machen.

zu High-K findest du auch hier was: http://de.wikipedia.org/wiki/High-k
 
Fetter Fettsack schrieb:
@KAOZNAKE

1. Du darfst aber nicht vergessen, dass die Einheiten mit zunehmender Anzahl bei der jetzigen Architektur immer schlechter skalieren, wenn man keinerlei tiefgreifendere Architekturänderungen vornimmt, was unter anderem den"Interconect" betrifft.

2. Außerdem sind 28nm nicht die Hälfte von 40nm :D. Da man also (unter anderem) für die (brauchbare) interne Kommunikation etwas mehr Fläche benötigen würde, da diese Einrichtung zwangsläufig zwischen den Shadern hockt, wäre meiner Ansicht nach eine Halbierung der Chipfläche nicht bei gleichzeitiger Verdoppelung der Shader möglich.

3. Im Übrigen: könnte mir jemand erklären, was abgesehen von der Strukturgröße der Unterschied zwischen dem jetzigen Fertigungssystem und dem 28nm System ist (Stichwort: End of Gate)? Ich hab das noch nicht ganz verstanden.

1. Da stimm ich mit dir nicht ganz überein.

4870 im Vergleich zur 3870 --> 63 % schneller (wir müssen AA rauslassen, wegen dem AA-Bug der 3870) @16x12

Trotz 2,5x soviel Shader (allerdings weniger Takt)

Bei der 4870 zur 5870 haben wir dann über 70% mit "nur noch" 2x soviel Shadern, allerdings mehr Takt.

Insofern glaube ich, das eine Verdoppelung der Shader weitherhin zu ca. 50% mehr Performance führt, sofern nix anderes arg limitiert.

Wie auch immer, NI soll ja eh ne neue Architektur bekommen, wobei ich eher davon ausgehe, das AMD die bestehende einfach weiter entwickelt und verbessert.

2. Haste recht. Vielleicht gehts ja trotzdem wie bei 3870-->4870 (2,5fache Shaderzahl aufm gleichen Prozess mit wenig größerem Die)

3. Is ja im Prinzip wurscht, weils nur die Fertigung betrifft, das Ergebnis sollte eigentlich das gleiche sein. Vielleicht aber auch nicht...


Prinzipiell gehts glaube ich darum ob das HKMetalGate am Ende der Chipfertigung (übertrieben gesagt) gesetzt wird (dabei wird glaub ich das vorher gesetzte Silizium Gate ersetzt) oder halt gleich zu Beginn. Ersteres scheint mir umständlicher zu sein (da man erst Silizium Gates erzeugen muss und diese dann durch Metalgates ersetzt werden müssen), zweites ist allerdings anspruchsvoller, da die Metalgates empfindlich für hohe Temperaturen sind.

Hier kannste lesen, wies geht

http://www.semiconductor.net/articl...High_Volume_Manufacturing.php#id2920186-174-a


@x-polo: Wenn NI=HD6000, dann ist es sehr sehr wahrscheinlich.

@Tekpoint: ATI wird mit NI mit ebenfalls sehr hoher Wahrscheinlichkeit noch bei TSMC bleiben, aber auszuschließen ist es nicht. Evtl. machen sie erstmal nen kleinen Chip bei GloFo. Komplett zweigleicsig zu fahren ist zu aufwändig und komplett wechseln bei "neuer" Architektur und 28nm halte ich für zu riskant.

Das man erst ab dem 4. Quartal oder wohl eher Q1/11 28nm liefern kann, halte ich aus AMDs Sicht für wenig tragisch, da die Konkurrenz leichte Probleme hat und die eigene Fertigung grad mal richtig anläuft. Die HD4000 lief auch ca. 15 Monate (4870 kam am 3. Juli, 5870 am 23. September)

Also kurz bevor 28nm kommen nochmal ne neue Serie raushauen, wo in 3 Monaten wahrscheinlich immer noch keine Marktsättigung eingetreten sein wird... naja, schon möglich aber sinnfrei aus meiner Sicht.

Kann man natürlich nicht wissen, was schon so alles in Planung war.


EDIT: Hier sieht man mal die angekündigten "Dünner Rahmen Monitore" von Samsung für Eyefinity.

3 Stück für 1900 Dollares

Autschn

Allerdings sind die Werte nicht von schlechten Eltern:

"Der MD230 soll einen dynamischen Kontrast von 150.000:1 und einen statischen Kontrast von 3000:1, 178 Grad Blickwinkel aus allen Richtungen, DVI- und DisplayPort-Anschlüsse, 8 ms Reaktionszeit und drei Jahre Garantie bieten. "

Wenns sowas IPS-Panel mäßiges ist, wärs zumindest noch im Rahmen.
 
Zuletzt bearbeitet:
@KAOZNAKE: Man weis das alles nicht so genau, mal sollte aber denken das AMD noch in seiner Zeit (wo die Fabrik AMD gehört) auch an 22nm Testmuster schon mit gearbeitet haben und da ist schon ein gewissen vertrauen Verhältnis schon da.

Ach und was das Thema an geht fast Hälfte der Verkleinerung der Fertigung kann bedeuten fast die Hälfte mehr Shader würde ich nicht zu stimmen wenn man mal sieht was damals bei Hälfte der Fertigung und Shader dann über stellt und das selbe heute und das meist auch bei selber Fertigung noch mal (siehe 55nm) ich glaube da geht auch viel mehr^^
 
Zuletzt bearbeitet:
Dank euch für die Erklärungen und die Links, silence und KAOZNAKE :)

EDIT:
Insofern glaube ich, das eine Verdoppelung der Shader weitherhin zu ca. 50% mehr Performance führt, sofern nix anderes arg limitiert.

Eine höherer Grad an Skalierbarkeit wäre trotzdem besser, da man so effizienter mit dem Material und der Fkäche umgehen könnte. Was bei NI vermutlich wohl passieren wird.
 
Zuletzt bearbeitet:
Celt!c schrieb:
Das heisst wohl hohe Preise.
Jap!

Celt!c schrieb:
Dann bestätigen sich wohl die Preise GTX 470 499 Euro.
Nein, die bisher kursierten Preise sind einfach nur erdacht und werden damit weder widerlegt noch bestätigt.

Nvidia meint nämlich noch gar keine Preise weder Pertnern noch sonnst wem genannt zu haben.

"NVIDIA and our launch partners have not released pricing or pre-order information yet. Any Web sites claiming to be taking pre-orders should not be considered legitimate."
 
silent-efficiency schrieb:
Nein, die bisher kursierten Preise sind einfach nur erdacht und werden damit weder widerlegt noch bestätigt.

Nvidia meint nämlich noch gar keine Preise weder Pertnern noch sonnst wem genannt zu haben.

Sowie auch Spezifikationen oder Taktraten. So gaben Partner jetzt bekannt, das die endgültigen Spezifikationen noch garnicht bekannt sind.
Nvidia gibt die Daten und Preise erst nächste Woche den Partner.

Also ist alles was jetzt auf manchen Seiten zu lesen ist Gelogen. ;)

http://www.fudzilla.com/content/view/17851/1/
 
Ich wollte an dieser Stelle mal die Systemanforderungen von Metro2033 in den Raum schmeißen. Interessant was man da so lesen darf:

)========(
Minimum:

  • Dual core CPU (any Core 2 Duo or better will do)
  • DirectX 9, Shader Model 3 compliant graphics cards (GeForce 8800, GeForce GT220 and above)
  • 1GB RAM

Recommended:

  • Any Quad Core or 3.0+ GHz Dual Core CPU
  • DirectX 10 compliant graphics card (GeForce GTX 260 and above)
  • 2GB RAM

Optimum:

  • Core i7 CPU
  • NVIDIA DirectX 11 compliant graphics card (GeForce GTX 480 and 470)
  • As much RAM as possible (8GB+)
  • Fast HDD or SSD

Enabling 3D Vision
Metro 2033 utilizes NVIDIA 3D Vision with compatible cards and hardware. To play in 3D you will require:

  • NVIDIA GeForce GTX 275 and above recommended
  • A 120Hz (or above) monitor
  • NVIDIA 3D Vision kit
  • Microsoft Windows Vista or Windows 7

For more information on NVIDIA 3D Vision, click here.

We also recommend the biggest and best monitor you can afford, and a home cinema kit or surround sound headphones!
)========(

Erstmal find ichs ja schon mal lustig, dass die Entwickler kein einziges Mal ATI erwähnen. Was mich aber am ehesten belustigt, ist die Aussage, dass eine GTX470 bzs 480 empfohlen werden. Kein Mensch weiß genau, wie schnell die sind, aber Hauptsache schonmal erwähnen. Spitzen-Angaben :D
 
Noch lustiger find ich, dass die 3D Vision extra erwähnen.
Das geschäft scheint schlecht zu laufen, wenn nvidia jetzt versucht, das extra über die System-Requirements heraus zu heben :P

@Metro2033 itself: Kann genausogut daran liegen, dass es grauenvoll gecoded is. Schade finde ich, dass es da keine schönen Aussichten gibt, wo die grafikleistung richtig zur geltung kommt.

@Topic: "The total attendance of the 2009 convention was 60,750" ( Quelle: Wikipedia ) , für die veröffentlichung is paxeast IMO echt die falsche wahl, lol. Die werden da hemmungslos totgetrampelt dieses Jahr.
 
Hardware-Anforderungen sponsored by nVidia :lol:
Sehr lustig auch, dass man GF 8800 und GT 220 in einem Atemzug nennt, obwohl die Welten trennen. Hauptsache man nutzt die Gelegenheit um die umgelabelten Produkte künstlich zu pushen...
 
Zuletzt bearbeitet:
@qbix: metro ist ein twimtbp-spiel, die arbeiten hand in hand mit nvidia und da werden die sehr wohl wissen, ob es optimal mit nem fermi rennt.
auserdem ist das das setting für optimum, spielbar ist low und selbst empfohlen wirkt noch med im vergleich zu den settings. es wird so wie crysis: bei der entwicklung nach oben hin von der zeitnah verfügbaren hardware limitiert und damit auch im nächsten jahr noch ein forderndes spiel für die meisten systeme.

und wer es mit amd-komponenten wissen will, muss dafür sorgen, dass amd die spieleentwickler genauso gut unterstützt, wie nvidia mit twimtbp. über 200leute, die für lau bei nem titel mithelfen in sachen treiberoptimierung und co, würde ich nicht ablehnen.
ohne solche programme gäbe es nur noch konsolenports, sind billiger als etwas für den pc zu entwickeln oder übelst aufwändig und detailoptimiert anzupassen.
 
Zuletzt bearbeitet:
@Qbix:Metro2033 sollte ja von Grunde schon ein Nivdia Spiel werden, so soll es letztes Jahr schon angekündigt worden sein. Weil hatte mich auch schon gefragt wie man ein Spiel ankündigen kann(drauf schreiben kann auf die Verpackung) ein Grafikkarte die es ja noch nicht mal gibt^^
 
Zuletzt bearbeitet:
Qbix schrieb:
Minimum:
  • DirectX 9, Shader Model 3 compliant graphics cards (GeForce 8800, GeForce GT220 and above)

Recommended:
  • DirectX 10 compliant graphics card (GeForce GTX 260 and above)

Optimum:
  • NVIDIA DirectX 11 compliant graphics card (GeForce GTX 480 and 470)

Das riecht mal wieder nach einem ATI-gecrippelten Spiel(ID-Abfragen oder ähnliches). Scheint unter DX11 ausschließlich auf NVidia-Karten zu laufen oder zumindest soll das dem geneigten Kaufinteressenten suggeriert werden. Dummerweise gibt es keine NVidia-DX11-Karten. Damit scheinen die sogar den Absatzausfall zu zahlen...... Interessant wäre mal zu Wissen, ob die Entwickler überhaupt mal eine GTX 4x0 während der Entwicklung gesehen haben.

Eins ist sicher, auf bestimmten Webseiten ist das mit Sicherheit das Spiel für einen irgendwann kommenden Vergleichstest(vermutlich Zwangsvorgabe(ihr bekommt eine Karte zum Testen, wenn wir die Tests vorgeben (ist ja alles schon dagewesen)).
 
Das Spiel soll das Fermi vorzeigespiel werden, es beherrscht bsp. auch PhysX.
Ich gehe mal stark cavon aus das Optimum für 3D Vision ist, denn da wird ja gern ma das doppelte der Leistung gezogen.

Tja, wird wohl wiedermal ein Spiel wo sich die AMD Leute in Arsch beißen weil sie es nicht spielen können/schlecht spielen können, hingegen die NV Leute freuen sich nen Kuchen das nur SIE es spielen können und es dann auchnoch gut aussieht..
 
@Shurkien: Soweit ich weis kann man aber auch eine Nivdia Karte als Physik nehmen bei den ATI Einsatz, hatte da mal ein Test irgendwo gesehen, glaube PCGamesHardware war das.
 
Alles schön und gut.
Nur sollen die PhysX Effekte so "heftig" sein das man da wieder mind. ne GTX260 (Als dedizierte PhysX Karte!) braucht, wie auch schon bei Dark Void.
Und die wenigsten AMD Leute werden sich wohl ne GTX260 als PhysX Karte holen. x:
 
@Shurkien: Da musst du aber auch eine zweite GTX260 kaufen^^ wenn Physik so stark ist.

@KAOZNAKE: Siehe hier mit einigen Karten soll es möglich sein
Hier
 
KAOZNAKE schrieb:
Nein, wird von NVIDIA "nicht unterstützt", sprich per Treiber deaktiviert. (Obwohl sie damit schon noch die eine oder andere Karte zusätzlich verkaufen könnten, auf lange Sicht stellen sie sich damit IMO selbst ein Bein)

Doch, gibt mitlerweile nen "Fanfix"

wertewandel schrieb:
@qbix: metro ist ein twimtbp-spiel, die arbeiten hand in hand mit nvidia und da werden die sehr wohl wissen, ob es optimal mit nem fermi rennt.
Ich glaube da hörst du zu sehr auf die Marketingabteilung.
Denn wenn noch nicht einmal Taktraten an die Boardpartner weitergegeben wurden, warum sollte dann ein Spielehersteller es wissen?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben