ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Southern Island wird vermutlich besser wie Evergreen(sonnst würde man ihn ja nicht bringen) , daher sollte Nvidia dieses Jahr schon nochmal Nachlegen.

immerhin hat vor nicht all zu langer zeit (2-3 Jahre) Nvidia große töne gespuckt, dass sie jedes Jahr eine neue Generation bringen wollen.
und da Fermi im September letzten jahres kommen sollte, dürfte doch bald was neues anstehen ;)
 
Southern Island wird vermutlich besser wie Evergreen(sonnst würde man ihn ja nicht bringen) , daher sollte Nvidia dieses Jahr schon nochmal Nachlegen.

Fermi wird vermutlich besser als GT200b, sonst würde man ihn ja nicht bringen. R600 wird vermutlich besser als R580, sonst würde man ihn nicht bringen.

nVidia sollte nachlegen, und das werden sie mit GF100b machen. Weniger Stromverbrauch, leisere Kühlung, (noch) bessere Übertaktbarkeit. (Hoffentlich :D)

immerhin hat vor nicht all zu langer zeit (2-3 Jahre) Nvidia große töne gespuckt, dass sie jedes Jahr eine neue Generation bringen wollen.
und da Fermi im September letzten jahres kommen sollte, dürfte doch bald was neues anstehen

nVidia's Rechnung wäre auch aufgegangen, wenn sie keine Probleme mit Fermi gehabt hätten und auch der 28nm-Prozess ende dieses Jahr gekommen wäre. (Der war doch mal so terminiert gewesen?)

Das einzig neue was ansteht ist mitte Juli der GF104, im September der GF100b und dazwischen noch der GF106 und GF108.
(Vermute ich doch relativ stark.)
 
vielleicht sollte ati auch einfach ihre karten zum kochen bringen und den verbrauch nach oben schrauben, wenn dann die unheimlich wichtige tessell-performance stimmt. :freak:

das gesamtpaket stimmt nachwievor einfach nicht, da muss man nicht über die unwichtige tessellation-performance diskutieren. das wird wohl erst in der nächsten graka-generation wichtig.

mfg
 
die tessel-performance könnte auch 10000mal schneller sein, bei einem dx11-spez. test.
was am ende davon wirklich nützlich ist ist das was zählt ;)

ich hoffe, das ati endlich mal was am AF dreht. DAS wäre mir beim SI wichtiger als diese dumme tessellation-performance.

mfg
 
Tess-Performance ich bitte euch ? :lol::lol:

Bis Spiele das richtig nutzen haben wir GTX780 am Start und die GTX480 wird für diese spielereien bis dahin massloss überfordert sein.

TESSELATION bei den Fermis ist ein werbegag, nichts weiter
 
LuXon schrieb:
Ati hat ja auch nen guten Grund bessere Karten rauszubringen. Schliesslich sind ihre Karten langsamer als die GTX480............
:heuldoch:

Als könnte AMD keine 5890 rausbringen...
Sie tun es bloß nicht, weil es 1. zu teuer ist und 2. der hoher Stromverbraucht und die hohe Lautstärke Fermi vorbehalten ist..
 
Ich bin jetzt zu faul zum Suchen, aber irgendwann auf den vorherigen seiten waren wir schon mal beim Fazit angekommen, daß Fermi oder HD5xxx für den einen oder anderen, je nach Anwendungsprofil, die bessere Wahl sein kann, somit es kein allgemeingültiges "die ist besser" gibt.
Ich plädiere dafür, daß wir uns auf diese Grundlage wieder besinnen sollten und dieses rumghacke auf irgendwelchen Faktoren, um die die eine oder andere Karte besser ist, sein lassen. Klar ist der Stromverbrauch der Fermis hoch, aber wer die Tess-Leistung will, muß ihn in Kauf nehmen, wer nicht, soll halt zur ATI greifen.
Was mich auch immer wieder stört und mich abhält, hier mehr zu posten, ist die Unart, auf Dinge, die deutlichst als Spekulationen markiert sind, so extrem persönlich zu reagieren, obwohl dies hier ein Spekulationthread sein soll. Ist echt schade, denn es werden schon recht interessante Dinge hier Diskutiert und auch aufgeklärt, jedoch häufig einfach zu sehr mit der eigenen IDeologie zu massiv verklärt.
Gruß
9pinking
 
danke 9pinking, dem kann ich mich nur anschließen.
dass fermi eine bis zu 6x tesselationsleistung bringen kann wurde von Sontin mit links unabhängiger tests belegt, dass das aber nur einen geringen teil der performance der karten darstellt, sollte wohl auch jedem hier klar sein. können wir das thema dann damit bitte abschließen? danke.
 
Man sollte beachten, dass Tesselation nicht alles für DX11 ist, es ist zwar das populärste Feature, aber nicht alles. Irgendwo hab ich mal nen Test gesehen, wo alle Features von DX11 getestet wurden, und da gab es einige, bei denen die Thermis alles andere als gut da standen, während die AMD Karten nur bei der Tesselation deutlich unterlegen waren.

gruß
 
Dann nehmen wir mal wieder eine Auszeit. Das Ding bleibt solange zu bis mir dann jeder Verwarnte wieder sein Leid geklagt hat, wie böse und ungerecht die Moderation ist, während man selber mächtig auf den Putz haut, andere User beleidigt und generell rumflamt. Was aber in Ordnung ist solange es andere auch irgendwo mal gemacht haben oder machen könnten etc. pp.

Dauert normalerweise ein paar Stunden bis ein paar Tage.

PS. Und keiner der üblichen Verdächtigen hat aus der Vergangenheit irgendwas gelernt. Der einzige Effekt ist, dass man die Dinge, die man vehement bestritten hat selber zu tun oder selbst wenn man es getan hat, doch völlig angemessen und notwendig waren, nun bei anderen meldet, die das vermeintlich getan haben. Da frage mich allerdings, wie man ohne vorheriges Verständnis der eigene Fehlleistung nun auf einmal dies bei anderen beurteilen kann. Es geht wie auch in der Diskussion immer nur um das abklappern von Checkpunkten, nicht um Kontext, Inhalt usw. Von daher auch das Missverständnis mit der Moderation. Was einigen leider tatsächlich zu fehlen scheint, ist die Fähigkeit zu akzeptieren, dass es hinter dem eigene Horizont durchaus mehr geben könnte.

Aber in dem Zusammenhang ist sicherlich eines richtig: Lügen, als bewusste Tätigkeit, tun die wenigsten, sie benutzen nur den Vorwurf gerne um die eigene selektive Wahrnehmung als Gegenteil, also als "Wahrheit" und die selektive Wahrnehmung des Gegenübers entsprechend als "unwahr" zu manifestieren. Der Glauben es nicht nur besser zu wissen, sondern das wer etwas anderes sagt, dies nur bewusst als Lüge tun kann (was dann aber ohnehin seltenst auch nur versucht wird zu belegen), macht diese Konversationen so unerquicklich. Unmittelbar vor dem Release konnte ich eine gewisse Dünnhäutigkeit noch nachvollziehen (wenn auch nicht tolerieren), mittlerweile ist das aber eine massive Vergeudung von Ressourcen, die man besser in die sachliche und konstruktive Diskussion steckt und man zwecks des eigene Erkenntnisgewinns nutzen hätte können. Aber wie gesagt, wer glaubt alles zu wissen, glaubt auch nicht, dass er etwas dazu lernen kann.

Es ist auch schon absurd, wie keine Seite mit einem Irrtum umgehen kann. Derjenige, der ihn machte, kann ihn nicht eingestehen und damit die Sache entschärfen. Die Gegenseite sattelt immer mehr darauf auf den Vorwurf. Der Verursacher baut dann an seinen Irrtum an, um ihn irgendwie noch zu retten. Und der Ausgangspunkt ist, dass jemand eine Benchmark-Folie mit einer anderen verwechselte. Wow, das kann man natürlich nicht friedlich klären, da braucht es Minimum zwei Seiten und mindestens eine Moderator, der die ganze Episode dann einfach versenkt, weil es offensichtlich ist, dass ihr euch erneut in unsinnigen Grabenkämpfen ergeht und das absolut zu nichts mehr führt.

Ich halte es für absurd, in einer Diskussion, die eigentlich Ahnung von der Materie und damit einen gewissen rationalen Zugang zu der Sache haben sollten, mit Grundregeln wie im Battlefield-Sammelthread zur Ordnung rufen zu müssen. Was ja dann doch angesichts der bisherigen Abläufe nichts bringt.

Schade, dass die Bemühungen vieler Einzelner wenig Effekt hat gegen das seit Beginn dieses Threads anhaltende Hin und Her einiger Weniger.

________

Wie versprochen, kann es hier nun weitergehen.
 
Zuletzt bearbeitet:
Danke, dass du diesen Thread wieder geöffnet hast, wär schade drum gewesen.


@Schinzie:
Imo ist die beste Neuerung das Multithreading, d.h. so wie ich es verstanden habe, können mehrere CPU Cores der GPU verschiedene Threads bereitstellen, die dann abgearbeitet werden können.
 
^^Dem kann ich mich nur anschließen.
Dadurch kann sowohl die leistung für Spiele als auch für "ernsthafte" Anwendungen verbessert werden. Und vllt kommen die Programmierer dann endlich auch drauf, daß man Programme für mehr als zwei Kerne programmiert, damit eben diese Möglichkeit besser ausgenutzt wird.
Wobei, weißt Du zufällig, ob Win7 eventuell dieses Feature von sich aus nutzt, um z.B. dem Mediaplayer einen Thread und eine "Pipeline" zur Graka zuzuweisen, und dem Explorer einen anderen Weg?
Hatte bislang das ganze nämlich nur unter dem Aspekt der "in-Programm-Nutzung" gesehen, aber nicht die Fähigkeit des OS in der Richtung zu optimieren.
Gruß
9pinking
 
Raucherdackel schrieb:
@Schinzie:
Imo ist die beste Neuerung das Multithreading, d.h. so wie ich es verstanden habe, können mehrere CPU Cores der GPU verschiedene Threads bereitstellen, die dann abgearbeitet werden können.

Das sind im Vergleich zu Tessellation nur Kleinigkeiten. Die Integration von Tessellation in D3D ermöglicht es jedoch erst jetzt, dass Spiele wesentlich geometriereicher werden können. Denn die Grundlage für Spiele ist eben Geometrie (Polygone).
Ohne Tessellation müsste die CPU die ganze Geometrie erzeugen,die Position berechnen und es über das Bussystem an die Grafikkarte schicken. Jetzt ist es möglich über eine standardisierte Schnittstelle (DX11) Geometrie auf der GPU zu erzeugen, was wesentlich, wesentlich schneller ist. In der Water-Demo von nVidia stellt die CPU nur 20k Dreiecke zu Verfügung und über Tessellation können bis zu (glaube ich) 2 Milliarden erzeugt werden.
Jedoch stellt Tessellation auch komplett andere Ansprüche an eine Architektur wie Pixelberechnungen oder das Texturrieren der Geometrie. Deswegen bringt eine Erhöhung der Geometrieleistung beim GF100 auch keinen (starken) Leistungsanstieg in heutigen Spielen, weil diese relativ wenig Geometrie einsetzen.
 
@9pinking: ich bin mir nicht sicher, die dx11 spezifikationen schreiben dieses feature definitiv vor. wie windows 7 das handhabt, weiss ich nicht.

@sontin: ja, tesselation ist halt das vorzeigefeature von dx11, nur multithreading verbessert signifikant die Anbindung von multicores an die gpu, sofern es auch genutzt wird. Metro 2033 zum beispiel nutzt multithreading nicht.
 
Windows 7 weißt die threads selber zu. Nehm mal an, du hast ein spiel am laufen, was 2 kerne voll auslastet, und du hast einen 4 Kerner. Im Hintergrund läuft bei dir der Media Player. Dieser wird dann nicht auf die zwei ausgelastetet Kerne geschalten, sondern nimmt sich eien der restlichen. Windows verwendet zur eigenen verwaltung dann den vierten.


gruß
 
ich glaube er meinte, ob zwei von einander unabhängige threads gleichzeitig auf die GPU zugreifen können, z.b. ein Game und der IE8.
 
ja.

Wenn du spielst, und parallel den WMP am laufen hast, ist es ja genau dieses Szenario.


gruß
 
wmp nutz auch die graka? wusste ich gar nicht.

anderes thema: amd drag konvertiert Videos beim kopieren auf tragbare medienplayer, gibts sowas auch bei nvidia?
 
Kommt es mir nur so vor oder braucht Nvidia länger, bis sie ihre ganzen Grakas rausgebracht haben?
 
AMD hat Ende September die beiden HD58x0 gebracht, die HD5770 folgte Mitte Oktober. Bei NV kam die GTX 465 erst rund zwei Monate nach der GTX480/470.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben