ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Jetzt wird es richtig peinlich. Die können netmal richtig photoshoppen ...
 
Sollte wohl die "teuflisch" gute Leistung des Fermi herausheben.^^

Im Ernst, wer kommt auf die Idee, ein derartiges PCB zu bauen? Außerdem wäre es interessant zu wissen, wie sie die 4 GPUs brauchbar miteinander verbinden, um genügend Bandbreite zu haben. Auf dem normalen SLI Wege, der dann auf dem PCB realisiert wurde?
 
Airbag schrieb:
Mal wieder was neues von Charlies Seite.
http://www.semiaccurate.com/2010/02/26/sweden-gets-world-exclusive-geforce-fermin-card/

Was die nur mit den drei Sechsen haben.:freak:

Volker schrieb:
Jetzt wird es richtig peinlich. Die können netmal richtig photoshoppen ...

Fetter Fettsack schrieb:
Sollte wohl die "teuflisch" gute Leistung des Fermi herausheben.^^

Im Ernst, wer kommt auf die Idee, ein derartiges PCB zu bauen? Außerdem wäre es interessant zu wissen, wie sie die 4 GPUs brauchbar miteinander verbinden, um genügend Bandbreite zu haben. Auf dem normalen SLI Wege, der dann auf dem PCB realisiert wurde?




Wer lesen kann ist klar im Vorteil, da steht unten ....


File under Graphics and Humor


Für Leute, die täglich mindestens eine Portion grüne Götterspeise(TM) :D:D:D verputzen, könnte das natürlich ein Aufreger sein.

Sorry, der musste sein... Bitte nicht zu Fischfutter verarbeiten.
 
Zuletzt bearbeitet:
ist das die gts640 oder eine gtx?
 
@bernd n

Allen Ernstes? Wär mir nicht aufgefallen. :D

Ich denke, dass auch die anderen das geschnallt haben, war ja recht offensichtlich. Eine Diskussion über die technische Machbarkeit wäre trotzdem interessant.
 
Lübke schrieb:
als weiteres thema sind übrigends auch gerüchte über atis kommende hd6k herzlich willkommen. diese ist zwar erst für q1 2011 angekündigt, aber ich habe auch schon gerüchte gelesen, dass ati diese vllt noch in 2010 bringen will (ggf. in 40nm statt 28nm)...

NI kommt definitiv in 28nm, also frühestens Q1/11. Leider.
Denn mein nächstes Graka-Update mach ich frühestens bei 28nm, der 40nm Prozess ist mir zu heikel und bringt auch nicht so große Vorteile, als das sich der Aufwand für mich lohnen würde.

Am liebsten wär mir ne 6670 mit den Specs der 5770, aber logischerweise ohne Stromstecker.

Auf jeden Fall bedeutet das, dass AMD dieses Jahr noch maximal eine 5890 in 40nm bringen wird.

Fetter Fettsack schrieb:
Und woraus ziehst du aus diesen Informationen den Schluss, dass bei 28nm weniger Probleme auftreten? Der gordische Knoten ist noch immer nicht zerschlagen.

Die Problematik im aktuellen TSMC 40nm Prozess liegt (u.a) bei der "Leakage", also konstanter Stromverlust trotzdem die Transistoren "ausgeschaltet" sind.

IMO ist das auch der Grund, warum die Grakas immer noch relativ viel Saft im idle ziehen.

Das andere Problem sind zu große Schwankungen bei der "Länge" der Transistoren.

Bei 28nm steigt TSMC allerdings auf HKMG um, womit zumindest mal das Problem der Leakage so gut wie beseitigt sein dürfte. Siehe die guten Ergebnisse von INTEL.

Bei dem anderen Problem kann man bloß hoffen, das durch die verbesserten Materialien eine Verbesserung eintritt, INTELs 32nm Fertigung macht mir da ebenfalls Hoffnung.

Wär noch interessant zu erfahren, inwiefern sich die von TSMC verwendete Gate-Last-Technik und die wohl von GloFo angwandte Gate-First Technik im Ergebnis unterscheiden.

Hier ist ein Artikel dazu, der (zufällig) prinzipiell Charlies Aussage bestätigt

http://www.electroiq.com/index/disp.../transistors/2009/12/hkmg_-gate-first_vs.html

"Due to compatibility issues with standard polysilicon gates revolving around defects that cause "Fermi pinning" which prevents transistors from switching properly at low threshold voltages, high-k gate dielectrics must be paired with a metal gate electrode. "These defects in the bandgap prevent gate voltage swing. The end result is a high Vt," Hoffman said"



EDIT: Fudo bestätigt was Charlie (480=5% schneller als Cypress) sagt:

http://www.fudzilla.com/content/view/17851/1/

Wenn man sich das CB-PR anschaut (1920 Quali) , läge eine 470 dann bei 110% der 5850.

Da ne 480 höchstens nochmal 12,5% schneller sein wird als die 470 (Differenz der Shader, außer NVIDIA beschneidet die 470 so wie AMD die 5830) landet die 480 ziemlich genau 5% vor der 5870.

Ich geh jede Wette ein, das es das ein oder andere Spiel gibt, wo die 5870 sogar vorne liegt. Dies hätte wohl so keiner erwartet.
 
Zuletzt bearbeitet:
Fudo bestätigt gar nichts, Fudo mutmaßt. Jungs, lernt doch mal endlich richtiges übersetzen.

"The safest guess is"

guess = Mutmassung, Schätzung, Vermutung

und davor steht im Text, dass die "final clocks"= finale Taktraten unbekannt sind, womit die Mutmassung auch keinerlei Grundlage hat.
 
Zuletzt bearbeitet:
Das die Taktraten immer noch unklar sind, spricht allerdings wieder mal Bände, ich darf erinnern, das es sich um das A3 Stepping handelt, und der auch nicht grade einfach zu fertigende G80 damals im A2-Stepping gelauncht wurde.

Allerdings macht das Stepping in diesem Fall eh so gut wie nix aus, da NVIDIA es hier mit einigen grundlegenden Problemen des TSMC 40nm Prozess zu tun hat, die sich mit einem NummernStepping nicht so einfach beheben lassen.

Wie auch immer.


Schon mal jemand das hier gesehen?

http://www.engadget.com/2010/01/08/ostendo-multiple-crvd-display-games-on/

Das brauch ich! :hammer_alt:

Wenn jemand immer noch Bedenken hat wegen "zu geringer Leistung" für Eyefinity, dem wir NI sicher abhelfen können.

Was denkt ihr?

Mal angenommen NI kommt in 28nm (als HD6000). Dies würde eine Halbierung der Chipfläche bedeuten.

Somit müsste wieder mal ne Verdoppelung der Einheiten drin sein.

Also wäre möglich das:

HD68x0-->3200 Shader
HD67x0-->1600 Shader (Ersatz für aktuelle 58x0)
HD66x0-->800 Shader (<--- Meine :D, Ersatz für aktuelle 57x0)
HD65x0-->400 Shader (würde die aktuelle 56x0 ersetzen)

(Ich weiß es gibt schone ne 5570 auch mit 400 Shadern, aber die ist ja mit DDR3 "verkrüppelt", insofern kein Vergleich)

Taktraten denk ich mal durch die Bank 50MHz mehr zur aktuellen Gen, vielleicht auch 100.

Wäre doch eine recht gute Aufstellung. Weiter runter lohnt sich IMO nimmer so richtig, weil der Chip der "65x0" schon recht klein wäre (55mm² oder so) und Lllano oder wie der heißt ja dann wie bei INTEL die Grafik in den CPU integriert. Dies sollte dann ohne Probleme mit 200 Shadern machbar sein, was eine externe Graka ad absurdum führt, da wesentlich teurer. Zudem: die TDP der 5670 liegt ja schon nur bei 61W, auf 28nm könnte das auf 40W oder so sinken, bei 200 Shadern wärens dann nur noch 20W oder so (sehr optimistische Annahme von mir)


Weiterhin interessant wäre, wie AMD das Bandbreiten"problem" angeht. Einfach wieder schnellerer RAM oder dann doch mal ein breiterer BUS?

Von 2900 (106000MB/s) auf 4870 (115000MB/s) warens ja nur 10% oder so mehr Bandbreite, von 4870 auf 5870 (154000MB/s) dann 25% mehr. Bekommt man nochmal 30% einfach nur mit schnellerem RAM hin? Langen würde das denke ich.
 
@KAOZNAKE

Du darfst aber nicht vergessen, dass die Einheiten mit zunehmender Anzahl bei der jetzigen Architektur immer schlechter skalieren, wenn man keinerlei tiefgreifendere Architekturänderungen vornimmt, was unter anderem den"Interconect" betrifft.

Außerdem sind 28nm nicht die Hälfte von 40nm :D. Da man also (unter anderem) für die (brauchbare) interne Kommunikation etwas mehr Fläche benötigen würde, da diese Einrichtung zwangsläufig zwischen den Shadern hockt, wäre meiner Ansicht nach eine Halbierung der Chipfläche nicht bei gleichzeitiger Verdoppelung der Shader möglich.

Im Übrigen: könnte mir jemand erklären, was abgesehen von der Strukturgröße der Unterschied zwischen dem jetzigen Fertigungssystem und dem 28nm System ist (Stichwort: End of Gate)? Ich hab das noch nicht ganz verstanden.

EDIT: hier etwas über den GF104

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7870210&postcount=13014

EDIT2: und nocheinmal etwas über den GF100 (aufgefunden im 3DC Forum)

http://www.rage3d.com/board/showpost.php?p=1336180005&postcount=1702
 
Zuletzt bearbeitet:
schaut mal in den news vom 3dc...

http://www.3dcenter.org/news/2010-02-26
2010-02Feb-26.png


mfg
 
Die GTX 470 sieht ja gar nicht mal so schlecht aus, so lange sie auch entsprechende Leistung bringt. Ich werde dann wohl eh eine HD 5850 nehmen -.-
Aber, dass der Preisbereich zwischen 200€ und 300€ so leer ist, ist irgendwie vollkommen unklug, denn das sind ja die am meisten (zumindest in diesem Forum genommen Karten) wenn man kein Enthusiast aber auch kein Mainstream-Gamer ist... Das ist wohl ein Schuss ins eigene Bein. ;) Da bleibt ATi nach wie vor gut dabei.

PS: Ich weiß, dass das nur ein Gerücht ist ;)
 
wieso? zwischen 200-300€ sind doch die ganzen gt200/b-chips ;) (vorerst)

erstmal die oberlieger befriedigen, später kommen die kleinen ableger hoffentl. nach, wenn sie nicht wieder alte teile umbennen ;)


mfg
 
@KAOZNAKE: Soweit ich weis will ATI ab nächsten Generation ja in Dresden fertigen lassen und man wird mit den GPU 40nm weiter machen erst mal.

Siehe hier:
http://www.hartware.de/news_48554.html

AMD wird auch die Nachfolgeserie der ATI Radeon HD 5000er im 40-Nanometer-Verfahren produzieren. Die Gründe dafür sind pragmatischer Natur: TSMC und Global Foundries können erst ab dem vierten Quartal 28-Nanometer-Chips herstellen - und auch nur für Produkte mit geringem Strombedarf.
 
Ich würde noch immer recht schön um einen kleinen Exkurs dazu bitten:

Im Übrigen: könnte mir jemand erklären, was abgesehen von der Strukturgröße der Unterschied zwischen dem jetzigen Fertigungssystem und dem 28nm System ist (Stichwort: End of Gate)? Ich hab das noch nicht ganz verstanden.
 
Abgesehen von der Strukturgrößenverkleinerung kommt beim 28nm-Prozess bei TSMC erstmals High-K-Metal-Gate zum Einsatz. Mit dem höheren K-Wert des Materials zwischen Gate und dem restlichen Transistor sind entweder höhere Taktraten möglich oder kleinerer Verbrauch bei gleichen Taktraten möglich.

Mit dem 28nm-Prozess werden Fertigungsstrukturen genannt, deren Gate eben 28nm breit ist. Über die länge des Gates ist mir bei TSCM nichts bekannt, auch über den Abstand zwischen den Gates "gate pitch" habe ich keine infos leider.
 
Danke, silence.

Mit weniger Verbrauch ist weniger Leakage gemeint, wie ich annehme. für was genau steht der K-Wert? Für eine spezifische Materialeigenschaft oder ein grundsätzliches physikalisches Phänomen, dass bei bestimmter Handhabung ausgenutzt werden kann?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben