ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Volker schrieb:
Wieder schön Kirschen gepickt. Dass er von Griechenland redet, ist das erste Ding. Weiter erklärt er, dass zum Start der 5870 ganze 3 Händler im ersten Monat (!) eine Karte hatten.

Wie man es dreht oder wendet: Für den der 5870-Launch nen Paperlaunch war, für den wird auch dies einer. Für den, der nicht so denkt, ist es auch hier wohl nicht so. Aber meist kommt ja dann die Leiblingsfarbe ins Spiel, so dass aus zwei gleichen Dingen plötzlich doch zwei unterschiedliche Ergebnisse rauskommen...

Sorry, aber ich bezog mich ganz allein auf diese Meldung von gestern, und die angeblich um 13 Tage verschobene Auslieferung, wie geschrieben, sofern das überhaupt stimmt. Tut mir leid, das ich es wie andere Seiten Paperlaunch genannt habe.
Wie es folgend um die Verfügbarkeit bestellt ist, ist dann wieder ein ganz anderes Thema; gibt es sie zumindest in geringen Mengen, werde selbstverständlich auch ich sie nicht Papiertiger nennen, warum auch. Aber vielleicht ist die GTX480 ja eine "Limited Edition", wenn die Gerüchte um wenige Tausend Karte und den Nachfolger schon im Backofen, stimmen? Whatever.

Meine Lieblingsfarbe ist im übrigen Grau; ich kaufe, und verbaue aus allen Töpfen Hardware, sowohl privat als auch im Beruf. Ich hab auch kein Problem damit zu sagen, das mich Onboard GFX mit nur einem Digital Ausgang ansuckt, oder das die 5830 entäuscht hat, und nicht attraktiv ist. Besonders viel mehr fällt mir aber jüngst nicht ein, und das, sowie die Tatsache das die anderen Töpfe einfach mal randvoll sind, und überlaufen zu drohen scheinen, ist der Grund warum ich meist nur für eine Farbe Partei ergreife.
 
Lübke schrieb:
ganz so extrem scheint der verbrauch der gtx280 wohl doch nicht zu sein, wenn selbst semiaccurate schon zurückrudert:
http://www.semiaccurate.com/2010/03/12/semiaccurate-wrong-about-nvidia-480gtx-power-use/

Bitte doch noch mal lesen: Da wurden die ursprünglichen Schätzungen nach OBEN korrigiert, nicht anders herum. Die 300W kamen von donaminhaber oder wie die heißen, die IMO auch immer ganz gute Infos haben.

Volker schrieb:
Naja, BSN hat haufen Lücken und komsiche Dinge erzählt in der News. Von unseren geklauten Bildern mal abgesehen ...

BSN ist der letzte Müll, und dieser Theo klaut sehr gerne Zeugs. Da gabs mal von Charlie einen "offenen Brief", wo er ihn versucht hat zu Rede zu stellen. Leider nix zu holen.

Im Gegensatz zu Semiaccurate, die euch auch als Quelle nennen.
 
http://www.pcgameshardware.de/aid,7...00-Update-Taktraten-bekannt/Grafikkarte/News/

Update vom 16.03.2010
Die Kollegen von Mydrivers wollen die finalen Taktraten der Geforce GTX 470 und GTX 480 erfahren haben. Der Firma Yu-Wei zufolge rechnet die GTX 470 mit 600 MHz Chip- und 2,0 GHz Speichertakt, die GTX 480 mit 600 oder 625 MHz Kerntakt. Der Speichertakt beläuft sich ebenfalls auf 2,0 GHz, die GDDR5-Chips sollen im Gegensatz zur GTX 470 mit 0,4 Nanosekunden (statt 0,5 Nanosekunden) betrieben werden - damit wären auch 2,5 GHz möglich. Der Hot-Clock respektive die Frequenz der ALUs und auch die der TMUs (angeblich halber Hot-Clock) fehlt indes - womöglich feilt Nvidia hier gar noch an den passenden Werten. Vor allem die Höhe des Shader-Taktes dürfte sich maßgeblich auf die GPU-Spannung, die Rohpower und die Leistungsaufnahme auswirken und ist damit einer der spannendsten Daten.
 
ähm 275 watt (neue schätzung) sind aber weniger als 280 watt (alte schätzung)...

Working hard, they have managed to reduce the TDP of the cards 5W to 275W.
reduce = reduzieren = weniger ;)

wenn man jetzt semiaccurates gesinnung kennt, kann man sich denken, dass 275 watt wohl worsed case sein dürften. vermutlich wird die tdp also wohl unterhalb von 275 watt liegen...

auf jedenfall klingt das schon besser als die 298 watt, die ja die letzten tage im netz kursierten.
dennoch nach wie vor deutlich zu hoch. und wie können die 32 shader satte 50 watt im verbrauch ausmachen, wenn die taktraten bei beiden karten angeblich gleich sein sollen?
 
Den von dir zitierten Satz muss man wohl ironisch besser sarkastisch sehen, vor allem mit dem Hintergrund des Autors des Artikels.

Zu den Taktraten, ich kann mir kaum vorstellen, dass die 480 auch denselben Shadertakt (und damit auch TMU/TAU-Takt) wie die 470 fährt.
Da wäre imo auch bei 512 Shadern der Unterschied zu gering. Wenn ich von etwa 60% FPS-Effizienz für das Mehr an Shadern bei dieser hohen Anzahl ausgehe, (und das ist schon sehr optimistisch, schaut man auf die 5850 bei gleichem Takt wie 5870) dann landen wir bei etwa 8-9% Mehrleistung für die 512-Variante, also etwa 5% für die 480 Shader Variante.
Deshalb rechne ich mit minimum 10% Shadertakt mehr für die 480.

Die kürzlich durchgesickerte GPU-Taktrate von 600-625Mhz für beide hat erstmal "nur" Einfluß auf die ROPS (Pixelfüllrate, AA-Performance).

Gruß
Raubwanze
 
Zuletzt bearbeitet:
das mit dem sarkasmus is mir klar, es ging mir nur um das wort reduce. dass charlie niemals freiwillig was positives über nvidia sagen würde, is ja bekannt^^

aber wie gesagt, das interessante daran ist, dass die 298 watt, wo auch immer die herkommen, offensichtlich nicht korrekt sind. so extrem nah an der grenze wären wohl trixereien zu erwarten gewesen, um noch so grade unter die 300 watt marke zu rutschen... aber bei 275 watt ist ja immerhin noch ein bisschen luft, dass sowas nicht erforderlich sein sollte...
aber noch ist weder der eine noch der andere wert bestätigt. ich hoffe mal, dass sich ein deutlich niedrigerer wert herausstellen wir. schon bei der gtx280 wurde im vorfeld über den stromverbrauch deutlich negativer spekuliert, als er dann letzten endes tatsächlich war...
 
Soweit ich mich erinnern kann, hatte die GTX280 aber auch nicht mehr als ein halbes Jahr Verspätung und ich gehe jetzt mal davon aus, dass Nvidia jetzt Fermi nicht nen halbes Jahr verschoben hat, weil die Mitarbeiter Urlaub wollten ;)
 
und wie können die 32 shader satte 50 watt im verbrauch ausmachen, wenn die taktraten bei beiden karten angeblich gleich sein sollen?

Natürlich brauchen bei der GTX 480 noch ein paar mehr dinge Strom als bei der 470 , u.A. auch die ROPs .

Troztdem schenke ich den Gerüchten um die Taktraten/ Verbrauch keinen Glauben .
Der von dir geschilderte Fall dürfte kaum eintreten
Zudem wäre bei gleichen Taktraten die Gtx 480 nur noch einen winzigen Hauch schneller als der kleine Bruder :)
 
Ich bin der Meinung das die ganze Sache diesesmal nicht wirklich positiv für Nvidia ausgehen wird, und das sage ich jetzt nicht als ein ATI Boy oder sonstiges habe schon viele Nvidia sowie ATI/AMD Karten gehabt.Andererseits sollte man keine vorgezogenen Schlüsse ziehen da immer noch keine wirklich brauchbaren Benchs verfügbar sind und alles was biss jetzt gezeigt wurde an den Haaren herbeigezogen ist.An sich bin ich ja auf Fermi gespannt nur was die Gerüchteküche biss jetzt erahnen lässt klingt nicht so gut.. naja vieleicht wird die Karte auch ein Renner wer weiß das schon.Bald sind wir alle schlauer.
PS: Hi@all mein erster Post hier im Board :)
 
@Ccleaner##50fps: ist mir schon klar, dass alle ausführungseinheiten anteilg mehr sind. aber rechne den verbrauch mal linear hoch (was bei gleicher spannung und taktung ja der fall wäre).
damit würden wohl 2 möglichkeiten wahrscheinlich:
- die verbrauchseinschätzung für mindestens eine der beiden karten ist falsch
oder
- die taktraten (und auch die vcore) unterscheiden sich doch stärker als bekannt

@FouG_Soul: willkommen im forum :)
 
Die Takraten werden nicht die gleichen sein, ansonsten wär die GTX480 für den Poppo.
Ich schätze mal GTX470 600mhz GTX480 678mhz chiptakt.
Ein echter Paperlaunch kann eigentlich nie eintreten, da man entweder den Verkaufsstart nach der Vorstellung bekanntgibt oder halt ganz wenige Karten bei Vorstellng+Verkaufsstart hat.
Imho welche Karte war objektiv gesehen in der Vergangenheit ein Paperlaunch?
 
Ich kann mir nicht vorstellen das beide Karten gleich takten sollen.
Das wäre einfach zu nahe beieinander und würde keinen Sinn ergeben.

Also alles noch offen und Gerüchte sind auch weiterhin nur wilde Spekulationen.
 
Natürlich sind sie das. Und das wird die kommenden Tage noch viel schlimmer werden in dem Beitrag, eh am 26./27. die Katze aus dem Sack gelassen wird. Spätestens wenn die ersten Samples in den Redaktionen weltweit sind, wird sicher was handfesteres leaken. Da gibt es ja immer paar die nicht dicht halten können.
 
Darfst du solche Benchmarks dann auch mit interessant bzw uninteressant betiteln oder ist das Dank NDA auch verboten? ;)
 
Also News werden wir die kommenden 10 Tage dazu eher keine mehr machen, da jetzt wirklich jeden Tag was neues erzählt wird und von Hass- und Fan-Seiten alles geschrieben aber nix geglaubt werden kann. Was hier im Forum passiert steht auf einem anderen Papier :D
 
Volker schrieb:
Spätestens wenn die ersten Samples in den Redaktionen weltweit sind, wird sicher was handfesteres leaken. Da gibt es ja immer paar die nicht dicht halten können.

Das meine ich eigentlich^^
 
Ich sags immer wieder, ATI ist nicht blöd und verfolgt das ganze ohne sich gedanken zu machen.

Aber, ATI scheint gelassen zu sein:

ATI Ready For GF100

oder was anderes

Get ready for an epic video card battle on March 26th when the Radeon HD 5870 and the GeForce GTC 480 face off for the very first time!

Darauf sollen wir uns doch freuen!:evillol:
Wenn die gut ist mach ich das wie bei meinen bisher 4 5870 von XFX. Bestellen und nochmals bestellen. Meine erste 5870 hatte ich bereits 1 Tag nach Realese um 10 Uhr morgens.... also?

Edit: Es handelt sich um folgende Website:

ATI Catalyst 10.3 Preview Update Driver Coming Out Tomorrow - ATI Ready For GF100 - Legit Reviews
 
Zuletzt bearbeitet:
Die Spannung scheint ja wirklich zu steigen --> genau das was Nvidia scheimbar wollte
jeder ist gespannt auf die neue Karte und auf deren Ergebnisse
(schon wieder finde ich neue Gerüchte zur GTX 480 die nun mit einer 5970 verglichen wird >.<)

ich denke das die Karte ein riesen Flop wird....
-zu hoher Stromverbrauch
-zu teuer
-zu wenig Mehrleistung im Gegensatz zur 5870
-Feature die keiner brauch...

auf jeden Fall steht eins für mich fest:
zukünftig werde ich mir eine ATI Karte holen denn diesen Karten sind viel effezienter in vielen Bereichen und bieten ein sehr gutes P/L Verhältniss
von Nvidia halte ich nicht mehr viel
spätestens als sie "die neue Generation GT 3**" usw. ins Leben gerufen haben ...


so far...
 
Zuletzt bearbeitet:
@Gamer_07

es ist doch immer wieder schön fundierte, unparteiische beiträge zu lesen :freak:

ich denke das die Karte ein riesen Flop wird....
-zu hoher Stromverbrauch
-zu teuer
-zu wenig Mehrleistung im Gegensatz zur 5870
-Feature die keiner brauch...

1. strom und leistung hängt definitv zusammen (abgesehendavon das der verbrauch und die leistung nicht bekannt sind) heisst die frage immer, wie viel leistung/watt hat die karte
2. ich kenn den preis nicht, du?
3. ich verstehe, also bist du alle und der rest keiner? oder woher willst du wissen welche features ICH braune? :freak:

auf jeden Fall steht eins für mich fest:
zukünftig werde ich mir eine ATI Karte holen denn diesen Karten sind viel effezienter in vielen Bereichen und bieten ein sehr gutes P/L Verhältniss

du kauft also für alle ewigkeit ati, weil sie jetzt gerade (wo du warscheinlich nichtmal kaufst) in effizienz und p/l (abgesehen davon des es eine veralgemeinerung ist undwir es nciht sicher wissen) besser ist ... ja ne ist klar :evillol:

von Nvidia halte ich nicht mehr viel
spätestens als sie "die neue Generation GT 3**" usw. ins Leben gerufen haben ...

nun stell sich das einer mal vor die bösen bösen NVler haben doch die frechheit ne oem only gen aus umbenannten (größtenteil kürzlich neu erschienen) nicht oem karten zu erstellen. die PÖSEN PÖSEN PUPEN ... mal im ernst hast du die letzten jahre geschlafen, dass du dieses pseudo gewäsch mit so einer harmlosen, um nicht zu sagen gar nciht mal abwegigen aktion begründen zu müssen?

und da fragt man mich warum ich solche aussagen immer auf die goldwage lege? und denke die leute wären voreingenommen

bei solchen aussagen ists mir mittlerwile schnuppe ob solche sprüche von den blauen(intel) den roten(ati) den grünen(nv) oder den schwarz/grünen(amd) kommen, ich kann dieses "weil die in dem und dem IMMER besser sind" einfach nimmer hören. und schon garnicht wenns so scheinheilig unter pseudo argumenten versteckt wird...

wenn du meinst du müsstest dein leben lang nurnoch ati kaufen dann mach das (aber dann mit reiem gewissen, offen und ohne solche versuchen von andern mit ahnung dafür absolution zu bekommen)

ich persönlich vergleiche bei jedem kauf, was ich zur auswahl hab aber jedem das sein >.>

*genug aufgeregt hab*

btt

in nem andern forum haben wir übrigend die vermutliche lösung für den "übermäßig gezackten" benchmarkverlauf der 5870 gefunden. die wahrscheinlichste erklärung dafür ist die 5d architektur. durch stark schwankende auslöastungsmöglichkeiten kommen derartige "zitterpartien" zu stande. leider herrschte bis zum ende uneinigkeit über den470er bench der damit verglichen wurde, aber wir waren uns dann einig, das es sehr warscheinlich ist, das derarte "zitterpartien" aussen vor bleiben, da dieser ja immernoch 1d nutzt.
 
Neo_Xsendra schrieb:
nun stell sich das einer mal vor die bösen bösen NVler haben doch die frechheit ne oem only gen aus umbenannten (größtenteil kürzlich neu erschienen) nicht oem karten zu erstellen. die PÖSEN PÖSEN PUPEN ... mal im ernst hast du die letzten jahre geschlafen, dass du dieses pseudo gewäsch mit so einer harmlosen, um nicht zu sagen gar nciht mal abwegigen aktion begründen zu müssen?

Wenn man auf fanboy gebashe Antwortet, muß man ja nun nicht gleich in die völlig andere Richtung in gleicher weise umkippen.
So witzig ist das Thema nämlich nicht, wie du es mit Baby-Brabbel-Sprache darstellst.

Neo_Xsendra schrieb:
die wahrscheinlichste erklärung dafür ist die 5d architektur. durch stark schwankende auslöastungsmöglichkeiten kommen derartige "zitterpartien" zu stande.

Wo denn?
Stellt sich zuerst die Frage warum bei dem ersten Screen es eine GTX4x0 sein soll, und nicht die 5870 - wer so ne Grafik erstellt, müßte schon Farbenblind sein, das ihm so ein Fehler unterläuft.
Zum anderen warum dies nicht schon viel Früher mal aufgefallen ist - die HD5000er sind ja nicht die ersten Karten von ATI mit 5D Shader.

Die 5D Shader dafür verantwortlich zu machen, halte ich doch für ziemlich weit her geholt, aber an der These haben ja sicher Profis gewerkelt, dann wirds schon stimmen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben