News Alle Details zu ATis Radeon 5000er Serie

und außerdem ist es jetzt schon viel zu spät solch gravierende änderungen an dem chip vorzunehmen ... sprich: kein DX11.1, da es 1. noch garnicht existiert und falls es released wird, die hersteller garkeine zeit hätten es zu implementieren
 
@y33h

immer ruhig bleiben, ja ich meinte 8xMSAA, das typische Benchszenario, es ist nicht vergleichbar, da beide modi verschieden rechnen. ich weiß nur,dass ATI´s MSAAx8 schneller und höherwertiger ist als Nvidias, da Nvidia eine andere rasterisierung hat. Häng mich aber net auf,wenns net stimmt, hab ich aus dem CB AA artikel, auf der PCGH wars au öfters zu lesen.

Das mit dem speichermanagment stand sowohl hier im Thread als auch auf eurer seite. Irgendwas von wegen verdoppeltem L2 Chache und effizienterer Verwaltung.

also immer die Kirche im Dorf lassen^^


gruß
 
ATI wird eh als erster DX 11.1 bringen , Nvidia hängt eh immer hinterher was DX angeht ^^
 
Immer? Soso...*hust*G80*hust*

Zudem, woher kommen eigentlich die Meldungen von einem DX11.1? Noch dazu schon im Februar...
 
Niemand kennt doch den DX11 Standart.
Selbst der Unterschied zwischen DX10 und DX10.1 ist nur den wenigsten bekannt.

Unter Umständen benötigt man gar keine neue Hardware für DX11.1 sondern es ist einfach nur ein Patch von Microsoft.
 
Schinzie schrieb:
ich weiß nur,dass ATI´s MSAAx8 schneller und höherwertiger ist als Nvidias, da Nvidia eine andere rasterisierung hat.

Meinst du etwa den Unterschied zwischen 8x MSAA Ati und 8x AA Nvidia?

Bei Nvidia steht
8x AA für 4x MSSAA + 4x CSAA (Coverage Sample)
8xQ AA für 8x MSAA (mit ATIs 8x AA vergleichbar)
8xS AA für 1x2 SSAA + 4x MSAA (?)
-----------für 2x1 SSAA + 4x MSAA
 
Zuletzt bearbeitet:
dass ATI´s MSAAx8 schneller und höherwertiger ist als Nvidias
Falsch. Beides ist SGMSAA, das EER ist identisch, ergo theoretisch gleiche Optik. In der Praxis wie mehrfach gesagt, minimale Unterschiede je nach Winkel, mal zugunsten NVs, mals zugunsten AMDs. AMD rechnet nur schneller, es ist aber nicht (optisch) hochwertiger.
8xS AA für 1x2 SSAA + 4x MSAA (?)
Nein, 8xS ist 2x1 OGSSAA plus 4x SGMSAA.
 
Kommt Jungs die 1000 Kommis schaffen wir hehe

Ich bin gespannt wie die neue 5000er Serie in Richtung Bruteforcen per GPU abgeht; wenn man sich mal anschaut was jetzt schon so möglich ist, da haut es einen fast aus den Socken :freak:


ighashgpu25m_2cd1g.png


Processed 791364501504 passwords in 316s.

Also ca. 2,5 Milliarden Passwörter, die von meiner hd4870x2 pro Sekunde (!!!!!!!) ausprobiert wurden. Da sollte die neue 5870x2 locker 5,5 Milliarden reißen :D

Laut der Prognose des nVidia CEOs (oder wer das auch war) wird sich die GPU Leistung in 6 Jahren um den Faktor 570 erhöhen.

In 18 Jahren sind wir also bei ca. 9900000000000000000000 Passwörtern/Sekunde (wenn ich mich da jetzt nicht verhauen hab ó.Ò, von der 5800er Serie ausgehend).
*fg

//
Falls das übrigens auch mal einer ausprobieren will mit dem GPU Bruteforcen, ich hab hier nen Thread zu aufgemacht in dem auch ne genaue Anleitung steht. Geht leider nur ab dem RV740 (4770 und höher) oder dem G80 und höher (8000er Serie, alle die CUDA unterstützen).
Es geht übrigens darum, nen MD5 Verschlüsselungscode zu knacken (beispielsweise 0706fe5d42eaf180716e148bea1b523d )
Wer rauskriegt was das heißt kriegt nen Keks von mir ^^
 
Zuletzt bearbeitet:
@ theorist

Nicht die GPU-Leistung, sondern die von GGPU. Kleiner Unterschied.

2009-09-20_195945chci.png
 
Nein, er sagte, die GGPU-Leistung würde um den Faktor 570 steigen, nicht die GPU-Leistung.
 
Ich kenne die Meldungen und sie sind irreführend. "Capabilites" kann alles Mögliche bedeuten.
Hier bekommt man einen besseren Eindruck davon, was Huang gemeint hat:

egq9ptjpg.jpg


Quelle: http://blogs.nvidia.com/ntersect/2009/08/hot-chips-2009-keynote-by-jen-hsun-huang.html

CPU: 1.2^6
GPU: 50*1.5^6
Gemeint ist damit Folgendes: Die CPU-Performance steigt jährlich um 20%, in 6 Jahren also um den Faktor 1.2^6. Die GPU-Performance steigt jährlich um 50%, in 6 Jahren also um den Faktor 1.5^6. Außerdem ist eine heutige GPU um den Faktor 50 schneller als eine heutige CPU. Deshalb ist eine GPU in 6 Jahren um den Faktor 50*1.5^6=570 schneller als eine heutige CPU. Das und nichts anderes soll Huang in seiner Keynote zum Ausdruck gebracht haben. Aber die Assgeier-Medien reißen mal wieder Alles aus dem Zusammenhang und stricken ihre eigenen Sensationsmeldungen. Die ganz erbärmlichen Redakteure kopieren dann sogar einfach nur die Meldungen statt den Aussagen mal nachzugehen.
 
Jaja, der Satz war so geil. 570fache "capabilities"

Das kann ja alles mögliche sein. Hatten wir aber schon im anderen Fred...


Woher der genau 570 nehmen will, ist mir mehr als unklar.

Genauso, wie der 6 Jahre in die Zukunft sehen will, da kann noch alles mögliche passieren, das is ja ne Ewigkeit in der Branche. :rolleyes:

Selbst wenn:

Angenommen, die CPU "capabilities" liegen bei nem absoluten Wert von 1000 PFlops,

Die vergleichbaren "Graka-Flops liegen dann vielleicht bei 1PFLOP/s

Macht nach Jen-Hsuns Rechnung in sechs Jahren

3000 PFLOP/s zu 570 PFLOP/s

Immer noch nicht wirklich bedeutend. Is aber nur Zahlenspielerei, da kann jeder denken was er will. Das Statement war jedenfalls Aussagefrei.

Und in 6 Jahren kräht da kein Hahn mehr...
 
@KAOZNAKE: Wir werden in sechs Jahren ganz sicher nicht im Petaflop-Bereich sein, was die Rechenleistung einer GPU angeht. Huang hat in seiner Keynote ein Wachstum von 50% pro Jahr genannt, da ist ein Faktor 11,4 in sechs Jahren.
 
1000ste AW^^
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben