ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Jup gibts schon.
Selbst ATI/Nvidia hat früher onboardkarten gebaut die ohne sideport designed waren und 128mb vom Ram gestohlen haben.
 
Zuletzt bearbeitet:
Das konnte man einstellen. Von 32 mit 512MB ist das letzte woran ich mich da erinner
 
hier noch mal ein paar neue gerüchte zu nvidias gf104, der möglicherweise der bessere fermi wird als der gf100. ich nehme mir jetzt mal die freiheit, den text von 3d-center zu kopieren, da er leider nicht als eigenständiger artikel sondern mittem im fließtext der ersten seite steht und man so jeden tag mehr danach suchen müsste :freak: :

Aus unserem Forum kommen neue, abweichende Informationen zur GeForce GTX 460 auf GF104-Basis: Danach soll diese Karte mit gleich 336 Shader-Einheiten antreten – deutlich mehr als die bisher angenommenen 256 Shader-Einheiten. Als Taktfrequenzen wurden im übrigen 675/1350/1800 MHz genannt, was eher mittelmäßig ist und daher in etwa dieselbe Performance wie 256 Shader-Einheiten auf hohe Chip- und Shader-Taktraten ergeben sollte. Gegenüber der GeForce GTX 465 dürfte eine GeForce GTX 465 mit diesen Daten aber dennoch im Vorteil sein, denn die GeForce GTX 465 bietet zwar 352 Shader-Einheiten auf, hat aber mit 607/1215/1603 MHz nochmals niedrigere Taktraten. Gut möglich, daß die GeForce GTX 460 somit auf einer etwas höheren Performance herauskommt als die GeForce GTX 465 – immer vorausgesetzt, diese neuen Angaben zur GeForce GTX 460 stimmen.

Basierend auf diesen Angaben ergibt sich im übrigen nunmehr die neue Spekulation, wonach der GF104-Chip mit 384 Shader-Einheiten und 64 TMUs an einem 256 Bit DDR breiten Speicherinterface antreten würde und somit deutlich mächtiger wäre als bislang angenommen. Ein solcher Chip wäre (im Vollausbau) durchaus in der Lage, sich auch noch mit einer GeForce GTX 470 (448 Shader-Einheiten, aber nur 56 TMUs und recht moderate Taktraten) anzulegen. Genauso auch würden dann plötzlich wieder DualChip-Grafikkarten auf GF104-Basis Sinn machen, denn mittels diesen würden im Vollausbau immerhin 768 Shader-Einheiten und 128 TMUs geboten und damit weit mehr als ein einzelner GF100-Chip im Vollausbau erreicht (hätte der GF104-Chip nur 256 Shader-Einheiten, würde eine GF104 DualChip-Grafikkarte gerade einmal die Anzahl der Shader-Einheiten eines einzelnen GF100-Chips erreichen). Bislang ist ein solcher GF104-Chip mit 384 Shader-Einheiten mit Blick auf den nur sehr mittelmäßigen Unterschied zum GF100-Chip allerdings immer skeptisch betrachtet worden.

Allerdings könnte aus der Angelegenheit trotzdem ein Schuh werden, wenn man beiden Chips eine generell unterschiedliche Konzeption unterstellt: Der GF100 als Chip auch für professionelle Bedürfnisse, welcher beispielsweise auch explizite DoublePrecision-Einheiten mitbringt – und der GF104-Chip als reine Gamer-Lösung ohne diese ganzen Zusätze, welche das GF100-Design mit aufgebläht haben. Dann würden GF100 und GF104 zwar bei der Spieleperformance keine sehr bedeutsamen Unterschiede aufweisen, dafür aber in allen Punkten, welche für Tesla- und Quadro-Beschleuniger relevant sind. Daß nVidia den GF104-Chip mit 384 Shader-Einheiten antreten läßt, weil dies aus der jetzigen Marktsituation mit den starken ATI-Beschleunigern notwendig erscheint, ist dagegen keine sinnvolle Auflösungen – denn die Entscheidungen über die Anzahl der Hardware-Einheiten eines Grafikchips werden über ein Jahr vor dem Launch final gefällt, kein Grafikchip-Entwickler kann also wirklich kurzfristig auf das aktuelle Marktgeschehen reagieren.

Quelle: http://www.3dcenter.org/
und der forenbeitrag auf den sich 3d center bezieht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8047453#post8047453

danke an Smartin für die links.

nichts des so trotz bin ich der ansicht, dass ihre ursprüngliche einschätzung mit 256 shader etc. wahrscheinlicher sind.
zu dem hoffe ich auch, dass nvidia es bei einem halben fermi belässt, um endlich mal das problem mit dem verbrauch in den griff zu bekommen. zugegeben, der verbrauch wirkt natürlich besonders fatal, weil immer mit ati hd5k verglichen wird, die ja weltmeister in leistung/watt sind, wogegen auch jede andere karte abstinkt, dennoch oder gerade deswegen muss nvidia in der richtung deutliche fortschritte machen. in sachen leistung reichts doch schon: gtx480 > 5870, gtx470 > 5850, gtx465 > 5830, ABER auch deutlich stromhungriger und lauter. und genau da muss nv ansetzen. und natürlich bei den kosten. die beste leistung bringt nichts, wenn die kunden nicht bereit sind den preis dafür zu zahlen. und das 3 mrd transistoren monstrum ist einfach in der herstellung zu teuer. je kleiner der chip wird, des so besser die yields, mehr chips je waver -> niedriger die kosten. und damit könnte nv dann auch preislich wieder atraktiv werden.

also ich glaube und hoffe, dass der gf104 den älteren gerüchten entsprechen wird. das wäre imho auch die einzige chance, der genialen 5770 noch mal nahe zu kommen. die karte ist für mich noch immer das non plus ultra der dx11-generation.
 
Zuletzt bearbeitet:
Nun, die Fertigung wird sich, denk ich nicht so sehr verbessert haben.
Jetzt noch so nen großen Chip bringen? Ich glaub nicht.
Preislich ist doch alles darauf angelegt Karten unter 250€ zu bringen.
 
sehe ich genau so. es gibt genug gf100 zum "zerschnibbeln". der wesentlichste unterschied dürften die tesla-spezifischen chipteile sein, die dem gf104 fehlen werden. aber das allein macht den braten wohl auch nicht fett. und gegen 5830, 5850 und 5870 steht nvidia mit gtx465, gtx470 und gtx480 leistungsmäßig gut da. in sachen verbrauch ist die hd5k wohl nicht mehr einholbar. da hat diesmal ati die nase klar vorn.
sinn eines gf104 wäre es imho mit den karten von 5770 abwärts zu konkurrieren. und da ist der verbrauch nicht ganz unwichtig. und niedrigen verbrauch bekommt man nicht mit riesenchips ;)
 
momentan weiß keiner so recht was da kommt.
Was ich bei 3dcenter in der Vergangenheit gelesen habe, lässt eher darauf schließen, dass neben der 450 auch die 460 kommt
ich glaube, die hatten das auch mal spekuliert, dass die 460 einfach eine Umbenennung der 450 ist, finde das aber eher abwegig, wenn die Ankündigung der 430, 440, 450 war ja im März meines Wissens offiziell. Also warum sollte Nv jetzt wieder einen Rückzieher machen und alles ummodeln?
Das würde wiederum eher heißen, dass die 460 ein Gerücht ist, was aber auch komisch ist, da es dazu sehr viele Informationen gibt/gab
Oder man hat die 450 erst einmal eingestampft, weil sie zu dicht an der 465 liegt und holt das dann später noch mal als kleinere 460 mit weniger Takt nach (wenn die 465 als "Resteverwertung" ausgedient hat). Vielleicht hat man bei den kleineren Chips besser gearbeitet und hat da mehr Potenzial, so dass man eine hochgedrehte 460 als Konkurrenz zur 5850 antreten lassen will (die dann aufgrund geringerer Fertigungskosten auch preislich konkurrenzfähig ist), die aber gleichzeitig aufgrund des recht hohen Taktes nicht mehr viel OC-Potenzial hat, um nicht die großen Brüder zu gefährden.
Zudem könnte die dann auch als "Refresh" zusammen mit einer "475" bzw 485 (512 Shader) rauskommen.
Ist aber nur Kaffeesatzleserei und vielleicht hier und da ist auch mehr der Wunsch Vater des Gedanken
 
ich bin mir sicher, dass es eine (gts/gtx?)450 und eine 460 geben wird. letztere wird wohl die maximale ausbaustufe des gf104 nutzen, wärend erstere eine abgespeckte variante wird. vermutlich mit teildefekten gf104 und 192 bit si.

was den namen gts450 bei 3d-center und hwmag angeht, es gibt noch keinen offiziellen namen für die karte und ursprünglich wurde auf gts450 getippt, dann kamen gerüchte zu einer gtx460. denke mal, dass der name 460 kommen wird, da die resteverwertung des gf100 schon gtx465 genannt werden musste...

aber wie gesagt, ich glaub nicht an eine konkurrenz zur 5830. ziel wirds vermutlich sein, dass die mutmaßliche gtx460 die 5770 schlagen kann (ok die 5830 ist auch nicht so viel schneller). das wird wohl das erklärte ziel von nvidia werden, da man gegen die 5830 ja schon die gtx465 im portfolio hat.
 
Interessant wird wohl auch sein, ob die HD5830 noch ein Update hinsichtlich der Pixelfüllrate bekommt.
Die HD5670 soll ja auch mehr Shader bekommen und sich dann gleichauf mit der 9800gt liegen.
 
@Lübke
bloß wo ordnest Du dann die 430, 440 und 450 ein, wenn die 460 schon "nur" auf Niveau der 5770 liegen soll? Dafür sind mir die in den Raum geworfenen Preise einfach zu hoch, die ja bei der 450 auch über 200 € liegen sollen. Die 430 bei ca 150-170 und die 440 bei ca 180-200 €. Die würden sie kaum absetzen können, wenn die Karten dann allesamt (deutlich) langsamer als die 5770 sind. Außerdem würden dann auch die 3xx Karten keinen Sinn und man würde sich selbst Konkurrenz machen.
Dass die 3xx eingestellt werden, glaube ich auch wiederum nicht, da sie in den NV-Portfolios immer neben den 4xx er standen und leistungsmäßig darunter angesiedelt sind.
 
Zuletzt bearbeitet:
@Schaffe89: das bezweifle ich. es wird sicherlich eine weitere Karte auf juniper-basis geben, wie sie in den gerüchten erwähnt wird. diese wird aber vermutlich folgerichtig 5730 heißen. den namen einer langsameren redwood-karte zu verwenden, wäre doch vollkommen sinnfrei.

@Smartin: du darfst nicht verkennen, dass bei ati noch die 5770, 5750, (bald 5730?), 5670, (bald 5650?), 5570, 5550 und 5450 auf ihren konkurrenten warten. zu viele namen hat nvidia da sicher nicht in petto ;)
 
naja ich denke aber, dass die von Dir genannten Karten eher 3xx Niveau haben
die GTS 250 ist ja schon so schnell wie eine 5750
und nur wegen DX 11? glaube ich kaum, dass sie dafür den doppelten Preis erzielen können
 
die 3xx sind reine oem karten und dx11 ist im mm ein wichtiges verkaufsargument. auch wenns auf karten der unteren klasse wenig sinn ergibt, da spielen eh nur mit allen effekten aus geht, gekauft wird was möglichst viel ram hat und möglichst tolle features auf dem papier.
so könnte eine gt220 mit 2048 mb ddr2 @ 64 bit mit dx11 (was ihr fehlt) und physx schon einer 4870 512mb den rang ablaufen ;)
 
naja ich gehe mal von seriösen Verkaufsmethoden und nicht von Mario Barth TV Anpreisungen aus. ;)
bleibt trotzdem das Argument, dass NV diesen Bereich bedient (2xx bzw 3xx) kann natürlich sein, dass die 4xx die 2xx ersetzen sollen, aber dann hätte man sich den Spaß mit der Umbenennung sparen können. Naja bleibt nur abzuwarten.
 
Also wieso immer noch jemand denkt dass Lowend Karten kein DX11 brauchen ist mir wirklich ein Rätsel. Jetzt ist der Thread schon so lange hier aktiv und es wurde so oft gesagt dass Tessellation das kleinste und unwichtigste Feature der DX11 API ist und trotzdem muss man das alle 30 Seiten wiederholen.

http://en.wikipedia.org/wiki/Direct3D#Direct3D_11
  • Multithreaded rendering — to render to the same Direct3D device object from different threads for multi core CPUs
  • Compute shaders — which exposes the shader pipeline for non-graphical tasks such as stream processing and physics acceleration, similar in spirit to what OpenCL, NVIDIA CUDA, ATI Stream achieves, and HLSL Shader Model 5 among others
.
Neben der Beschleunigung von Browsern und Flash wird erst kommende Software dies richtig ausnutzen. Natürlich kann das eine DX 10.1 Karte teilweise auch, nur nicht so effektiv wie ein DX11 Karte.
First seen in the Release Candidate version, Windows 7 integrates the first released Direct3D 11 support. Windows Vista Platform Update includes full-featured Direct3D 11 runtime and DXGI 1.1 update, as well as other related components from Windows 7 like WARP, Direct2D, DirectWrite, and WIC.
WARP (Windows Advanced Rasterization Platform)
Dircet2D
DirectWrite
WIC (Windows Imaging Component)

Dabei ist entscheidend:
The Direct3D 11 runtime will be able to run on Direct3D 9 and 10.x-class hardware and drivers, using the ​ D3D10_FEATURE_LEVEL1​ functionality first introduced in Direct3D 10.1 runtime.This will allow developers to unify the rendering pipeline and make use of API improvements such as better resource management and multithreading even on entry-level cards, though advanced features such as new shader models and rendering stages will only be exposed on up-level hardware
DX11 bringt wesentlich mehr als nur mehr Polygone in Games!
 
Lübke schrieb:
aber wie gesagt, ich glaub nicht an eine konkurrenz zur 5830. ziel wirds vermutlich sein, dass die mutmaßliche gtx460 die 5770 schlagen kann

Mitm Die auf Cypress Niveau (oder drüber) die 5770 zu schlagen... ist einfach nur...

*AUA*

Lübke schrieb:
hier noch mal ein paar neue gerüchte zu nvidias gf104, der möglicherweise der bessere fermi wird als der gf100.

Die werden sich aber auch nicht einig: Mal reden die von 336 Shadern, dann wieder von 384??? Was denn nun?
 
@Complication
JA da hast du wohl recht.
Es ist aber auch kein Wunder, dass sich alles um sinnlose Tesselation dreht, die bis auf Dirt2 noch keinerlei Vorteile geboten hat, wenn es die Magazine und die Onlineseiten es einem ständig unter die Nase reiben wollen.

Lübke schrieb:
wäre doch vollkommen sinnfrei.
Hat ja keiner gesagt, dass der Name gleich bleibt.^^
Gibt ja ach schon einen angeblichen Pseudo Test der Karte mit mehr Shadern, weiß nur nicht mehr wo der war.
Ich habe aber in letzter Zeit dringend das Gefühl, dass Nvidia im nächsten Jahr/Ende diesen Jahres richtig gebeutelt wird, denn was kommt denn nach GF104/106 noch?
Die GTX485 mit allen 512Shadern und 50mhz mehr Takt? Kann doch eigentlich nicht der Ernst von Nvidia sein?
Mit GF104 eine 2GPU Karte? So wie es derzeit aussieht sieht es nicht danach aus, auch wenn mehrere Quellen meinen, ja die hat n 256bit breites SI, kommt mit mehr Takt als ne GTX265 und gleicht dadurch wieder die fehlenden Shader und das fehlende Speicherinterface aus? Ist doch niemals Konkurrenzfähig. Der Stromverbrauch wäre wieder viel zu hoch und die Leistung würde sich vielleicht ein paar Prozent über der GTX480/GTX295 einordnen.
Warum bricht denn eine GTX465 in 2560x1600 so stark ein? Eben weil die Texturfüllrate und Pixellfüllrate einfach nicht mehr ausreicht, was sich Monat für Monat bei etwas kleineren Auflösungen weiter so entwickeln wird, je nach Anforderungen des Spiels und detailreicheren Texturen.
Ich denke nach wie vor nicht, dass der Fermi irgendwas architekturmäßig gerissen hat, außer dass er anscheinend in niedrigeren Auflösungen nicht so viel Textur und Pixellfüllrate benötigt, immerhin sieht mans ja gut wie bereits HD58702GB Karten der GTX480 je nach Game in 2560x1600 auf den Leib rücken. Trotzdem muss Nvidia den Chip immer noch aufpumpen, nix mit mehr Effizienz
ATI hat bis auf sinnlose Tesselation bisher auch mit der alten Architektur keinesfalls das Nachsehen und wenn jetzt schon die halbe neue Architektur mit verändertem Uncore Bereich kommt, dürfte Nvidia wirklich ziemlich schlecht dastehen, denn 32/28nm dauert noch, imho können sie schlecht kleiner fertigen, was heißt sie haben immernoch das Problem der Lautstärke und des Verbrauchs.
Ist ja in letzter Zeit wieder etwas abgeflaut, aber Nvidia dürfte wirklich keine großen Chancen haben konkurrenzfähig zu bleiben mit ihren großen uneffizienten Chips und da sehe ich Nvidia erst am Anfang ihres "Unglücks".
 
Zuletzt bearbeitet:
Nvidia steht vor der Wahl, etwas ganz neues zu Entwickeln oder sich auch hier zurück zu ziehen.
Mit GF100 kann es nicht bestehen.

Alleine die 40nm Fertigung reicht zur Zeit nicht aus um beide Hersteller abzudecken. An eine 28nm Fertigung bei TCSM ist vor Juni 2011 nicht zu denken. Von einer neuen NV Generation auf 28nm vor November 2011 kann nicht Ausgegangen werden. Und ob dieses Unternehmen dann für beide Hersteller auch die Ausbeute dafür hat steht mehr als in den Sternen. Bedeutet, das GB für AMD zwar fest steht es aber für NV bedeutet auch dahin zu wechseln was schlicht nicht geht.
Von dem Technologischen Rückstand seitens NV auf AMD mag ich erst überhaupt nicht schreiben. Denen fehlt bereits der IGP Sektor, mit Fusion kann es genauso wenig mithalten was aber nötig wäre um im mobilen Sektor oder im unteren Preissegment mit AMD mitzuhalten und das ist ja selbst heute nicht mehr möglich. Da ziehen die HD53xx-57xx einsam Ihre Kreise. Vor November 2010 ist hier nichts aber rein gar nichts von NV zu erwarten.

Nicht einmal Tegra 2 kann das Unternehmen wirklich Absetzen. Und besonders hier liegt die Zukunft von NV. Wenn NV jetzt eine ganz neue, mit Hochdruck und den damit verbundenen extra Geldaufwendungen, neue GPU Generationen Entwickeln will die mit AMD auch nur halbwegs noch mithalten soll ist Tegra2 Geschichte. Den für beides kann und hat dieses Unternehmen nicht mehr das Geld und auch nicht die Leute.

Eine eigene mobile Plattform ala Nvidia Tablet ist der einzige Ausweg. Geräte die als Spielkonsole und auf Multimedia Ausgelegt sind. Aber selbst hier kann und wird AMD mit Fusion light früher oder später davon ziehen wenn sich NV hier nicht auf den Hosenboden setzt.

Grafikarten von Nvidia... 2011? Wenn ja, dann bye bye Nvidia.
 
@BestPower²TDP:
Nvidia steht vor der Wahl, etwas ganz neues zu Entwickeln oder sich auch hier zurück zu ziehen.
Mit GF100 kann es nicht bestehen.

genau wie ati mit r600 und dessen abschließende version cypress nicht bestehen kann? wie oft wurde nvidia jetzt schon tot gesagt? klar gegen die größe und das kapital von amd sieht nvidia ziemlich mikrig aus, aber nur weil sie mal einen fertigungsprozess nicht in den griff bekommen und marktanteile verlieren sind sie nicht sofort pleite.

Bedeutet, das GB für AMD zwar fest steht es aber für NV bedeutet auch dahin zu wechseln was schlicht nicht geht.

warum sollte nvidia nicht zu gf wechseln können? nur weil die fabriken mal amd gehört haben? gf ist ein eigenständiger chiphersteller und würde sich einen großkunden wie nvidia sicher nicht entgehen lassen.

nvidia hat zwar behauptet, sie würden nicht bei gf fertigen lassen, weil amd miteigentümer ist, aber nvidia erzählt viel wenn der tag lang ist.^^

und ganz nebenbei: dass ati bei gf fertigen lassen wird, steht ebenso wenig fest. dass die kapazitäten für 40nm bei tsmc so gering sind, liegt schlicht daran, dass ati und nvidia im vergangenen jahr so wenig kapazitäten gebucht haben. eine fertigungsstraße für 40nm-fertigung wird nicht mal eben so bei amazon bestellt und binnen 24 stunden geliefert. das sind spezialanfertigungen, die eine entsprechende vorlaufzeit brauchen. sowohl ati als auch nvidia haben die kapazitäten zur verfügung, die sie gebucht hatten. dass der absatz trotz wirtschaftskriese sogar gestiegen ist, statt stark zurückgegangen wie von ati und nvidia erwartet, ist in diesem zusammenhang pech.

und der vergleich tegra2 mit fusion light hinkt auch. tegra ist eine arm-plattform, wie sie von apple zukünftig verstärkt eingesetzt werden (ipad, iphone) und daher vermutlich auch von anderen anbietern mobiler geräte, die mit apple konkurrieren. zwar stellt apple zukünftig eigene arm-prozessoren her (sie haben arm aufgekauft), aber andere anbieter wie nokia z. b. werden so zu potentiellen kunden für tegra & co.
allerdings kommen wir langsam vom thema dx11-grafikkarten ab...
 
Lübke schrieb:
genau wie ati mit r600 und dessen abschließende version cypress nicht bestehen kann? wie oft wurde nvidia jetzt schon tot gesagt?

Der Fertigungsprozess hat eigentlich jeden noch so großen Chip vom Versagen gerettet.
Allerdings wirds mit dem Fortschritt mau aussehen, das wird sich in die Länge ziehen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben