News Alle Details zu ATis Radeon 5000er Serie

Ihr schreibt ja immer noch;) jetzt aber auf zum Endspurt. :lol:

Ein GTX275 GPU ist ein restverwerteter 285 GPU, bei der GTX 260 genauso.
Richtig, und für die HD 4890 gibts fast keine Resteverwerter. Es gibt glaube ich nur eine -> HD 4730 und die ist HD 4890 typisch ein Stromfresser und Epic Fail: http://www.au-ja.de/review-powercolor-hd-4730-12.phtml
Darum wird der Chip so günstig sein bei NV, es gibt genug Resteverwerter der GTX 285...

Crap! Richtig muss ich mal ausbessern, nächstes mal weniger kryptisch zu später Stunde :rolleyes:


up! Scheiße programmiert ist und bleibt scheiße programmiert. (Natürlich nur bei den ATI-Grakas). Du würdest doch auch sagen, wenn WinRAR nur auf AMD Quads auf 4 Kernen läuft, bei INTEL aber nur auf zwei, das es scheiße programmiert ist? Oder nicht?
So einfach kannst du es dir nicht machen. Einige Programme laufen einfach Architektur bedingt einfach besser oder schlechter auf verschiedenen Karten. Ich würd auch niemals auf die bescheuerte Idee kommen und behaupten das das Programm hier schlecht programmiert wurde: https://www.computerbase.de/forum/t...it-der-gpu-rechnen.426771/page-2#post-5483252
Nur weil es besser auf ATI Karten läuft...
Oder Crysis, weil es ein Ruckerl besser mit Shaderleistung umgehen kann... Crysis ist zb. sehr gut Programmiert, allein der Physik Part ist genial! Nur weil man GPU Power braucht, sollte man nicht gleich einen Hass gegen solche Programme schieben...
demnächst kommt der chip "klaus-dieter". ja is das jetz n lowend, midrange oder highend-chip? welche generation?
Echte Namen wie "Evergreen" sind schöner "besser" als kryptische Bezeichnungen. Mein letzte AMD CPU hieß zb. "Newcastle". Gefällt mir viel besser als G90...
Aber das ist wohl Geschmacksache und über Geschmack lässt sich sehr gut streiten wie wir wohl alle wissen. :rolleyes:
Achso .. komisch das dann weiter oben bei der Größe auf die schlechtere Packrate bei Nvidia verwiesen wird.
Kann es sein das mit kleineren Strukturen mehr Ausschuss entsteht umso mehr Transistoren man auf den mm² packt? Kann es sein das in ein paar Jahren wenn es kritisch wird mit dem Shrinken bei ca. 16nm dann größere Packdichten wie zb. bei NV dann von Vorteil sein können, weil man dann nicht so viel Ausschuss hat? Oder ist ein größerer Chip immer schlechter als ein dicht gepackter wie bei ATI? Unyu vorallem deine Meinung interessiert mich...



Wird schon nicht allzu viel ausmachen. Die GTX 8800 hat auch ne 30% höhere Speicherbandbreite, als die ATI 4850 und ist trotzdem 10-15% langsamer
HD 4850 512MB ist aufgrund Vram Mangels teils langsamer als eine 8800GTX. Nicht immer, aber immer öfter.:D Grob kann man sagen sie sind gleich schnell, mit PhysX hat die HD 4850 keine Chance...

Voll Geil MANN!!!

Wo sind die Balken? (Monitor-Ränder?)

WILL HABEN!!!!

PREIS EGAL!!!!
Ach da schau an, jetzt plötzlich auf einmal muss ATI keine Preis/Leistung mehr bieten und zum Enthusiast Anbieter werden. Ok das merk ich mir ;)


Ja ich bin mal gespant was passiert wenn Intel noch mit mischt eines Tages.

Aber solche Fehler wie bei Nivida gerade darf dann kein Hersteller mehr passieren, das wäre dann der Tod.
Nvidia: Krise um den GT300?
Chip-Ausbeute liegt aktuell unter 2 %
Glaub auch das einer der 3 dann kaputt geht bzw. aus dem Markt raus muss weil wahrscheinlich kein Platz für 3 Hersteller ist. Intel hat quasi unendlich Geld und geht quasi nur freiwillig wieder wenn der Larrabee floppt. Oder sie probieren es so lange bis sie mit dabei sind, würd ich zumindest machen weil CPUs einfach zu ineffizient arbeiten im Performance per Watt Bereich.

NV hat auch bedeutend mehr Kohle und Standbeine als AMD, daher denke ich das es sehr knapp wird für ATI. Es geht hald wie immer ums Geld. Naja mal schaun ob sich ein Monster Larrabee CPU@GPU überhaupt etablieren kann...
Aufm Servermarkt hat er alle Chancen der Welt und das könnte Intel sogar schon reichen bzw. das eigentliche Hauptziel von Intel sein!:eek:
Nein, er sagte, die GGPU-Leistung würde um den Faktor 570 steigen, nicht die GPU-Leistung.
y33H@ will ja nicht Korinthenkackern aber heißt das nicht GPGPU?;)
Google bringt da ganz lustige Sachen zu GGPU:
GGPU.com Girls angequatscht und abgeschleppt und das erste Mal vor ...

woher der genau 570 nehmen will, ist mir mehr als unklar.

Genauso, wie der 6 Jahre in die Zukunft sehen will, da kann noch alles mögliche passieren, das is ja ne Ewigkeit in der Branche
NV entwickelt bereits heute GPUs die in 6 Jahren auf den Markt kommen, dh. die Entwicklungsabteilung kann schon ungefähr sagen wie schnell das ganze mal wird. GT300 ist vor 6 Jahren auf dem Reißbrett entstanden! Ihr kennt doch noch NVs extrem ordentliche Entwicklungsabteilung oder?:D https://www.computerbase.de/bildstrecke/22623/


Haste dich mal um die Babes gekümmert? Ist viel wichtiger als Jen Hsun
Rofl!:daumen:

MfG Kasmo
 
Zuletzt bearbeitet:
Unyu schrieb:
Kann es sein das mit kleineren Strukturen mehr Ausschuss entsteht umso mehr Transistoren man auf den mm² packt? Kann es sein das in ein paar Jahren wenn es kritisch wird mit dem Shrinken bei ca. 16nm dann größere Packdichten wie zb. bei NV dann von Vorteil sein können, weil man dann nicht so viel Ausschuss hat? Oder ist ein größerer Chip immer schlechter als ein dicht gepackter wie bei ATI? Unyu vorallem deine Meinung interessiert mich...

... mich nicht, zumal er wie ne Fahne im Wind seine Aussagen - und die anderer - so dreht, wie es gerade passend ist. Ihr könnt euch aber weiterhin vorspielen, was für Vollprofis ihr doch seid (oder vielmehr zu sein glaubt), soll mir egal sein.
 
Zuletzt bearbeitet:
@ unyu und kasmo

größere Packdichte heißt mehr Transistoren pro fläche, dh Nvidia hat die kleinere Packdichte.


gruß
 
@Masterchief79

geb mal einen Tipp über die Länge des Passworts

meine 9800 Gx2 muss ein bisschen belastet werden und schafft nur 1 Milliarde
Das sind 10 Zeichen, nur kleine Buchstaben... Kann aber trotzdem ein bisschen dauern o0

Ich habs mal ungefähr berechnet, bei 14 Zeichen (alle nur kleine Buchstaben) würde meine 4870x2 bei 2,5M/s 800000 Jahre brauchen ó.Ò

Wie das bei 10 Zeichen ist weiß ich auch nicht, könnte aber ein bisschen dauern :D

Der Code müsste dann lauten: C:\ighashgpu.exe -c:s -h:0706fe5d42eaf180716e148bea1b523d -t:md5

Mit dem -c:[x] kann man aussagen, was für Kombinationen der durchprobieren soll.
  • s: Small Letters
  • c: Caps (Big Letters)
  • d: Digits (Zahlen)
  • e: Special (Sonderzeichen)
  • p: Space (Leertaste)
  • a: All
 
Zuletzt bearbeitet:
ähm weiss jemand schon wann der benchmark von den grafikkarten rauskommt

dachte das passiert heute
cb hatt die doch schon früher
 
Zuletzt bearbeitet:
offiziell wissen wann das NDA fällt darf ja (genau wegen des NDAs) noch keiner, aber ich hab irgendwo Gerüchte von heute ~ 6:00 gelesen

EDIT: wobei das für mich eigentlich keinen Sinn ergibt, wenn es stimmt, dass die Karten in den USA am 22. und in Europa am 23. vorgestellt werden sollen (und somit jawohl auch das NDA fällt) denn um ~6-7:00 endet der 22. auch in den USA ja so langsam
 
Zuletzt bearbeitet:
@moros

Kann ich schlafen gehn und morgen früh das anschauen oder kommt das noch in dieser stunde? ^^
 
wenn es NOCH nicht gefallen is, darf er da wohl auch noch nix zu sagen xD der Temin selbst steht ja blöderweise auch unter NDA oder nicht -.-?
 
sind die ATIs nicht Benchmark mäßig in Sachen AA und AF schneller? es sieht halt nur schlechter aus das AF *flimmer* oder nicht?
 
Bei 2x und 4x MSAA verliert AMD idR n Ticken mehr, dafür ist 8x MSAA nahezu "kostenlos".
 
dafür ist 8x MSAA nahezu "kostenlos".
Wer braucht schon 8x MSAA auf einer next Gen. GPU ;)

Edit: Zu den Benchmarks:
Crysis%20No%20AA.png

2x GTX 285 2048 @ SLI ist schneller :D
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben