Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Alle Details zu ATis Radeon 5000er Serie
- Ersteller Moros
- Erstellt am
- Zur News: Alle Details zu ATis Radeon 5000er Serie
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Ihr schreibt ja immer noch jetzt aber auf zum Endspurt.
Darum wird der Chip so günstig sein bei NV, es gibt genug Resteverwerter der GTX 285...
Nur weil es besser auf ATI Karten läuft...
Oder Crysis, weil es ein Ruckerl besser mit Shaderleistung umgehen kann... Crysis ist zb. sehr gut Programmiert, allein der Physik Part ist genial! Nur weil man GPU Power braucht, sollte man nicht gleich einen Hass gegen solche Programme schieben...
Aber das ist wohl Geschmacksache und über Geschmack lässt sich sehr gut streiten wie wir wohl alle wissen.
NV hat auch bedeutend mehr Kohle und Standbeine als AMD, daher denke ich das es sehr knapp wird für ATI. Es geht hald wie immer ums Geld. Naja mal schaun ob sich ein Monster Larrabee CPU@GPU überhaupt etablieren kann...
Aufm Servermarkt hat er alle Chancen der Welt und das könnte Intel sogar schon reichen bzw. das eigentliche Hauptziel von Intel sein!
Google bringt da ganz lustige Sachen zu GGPU:
MfG Kasmo
Richtig, und für die HD 4890 gibts fast keine Resteverwerter. Es gibt glaube ich nur eine -> HD 4730 und die ist HD 4890 typisch ein Stromfresser und Epic Fail: http://www.au-ja.de/review-powercolor-hd-4730-12.phtmlEin GTX275 GPU ist ein restverwerteter 285 GPU, bei der GTX 260 genauso.
Darum wird der Chip so günstig sein bei NV, es gibt genug Resteverwerter der GTX 285...
Crap! Richtig muss ich mal ausbessern, nächstes mal weniger kryptisch zu später Stunde"3-4GFLOP"
So einfach kannst du es dir nicht machen. Einige Programme laufen einfach Architektur bedingt einfach besser oder schlechter auf verschiedenen Karten. Ich würd auch niemals auf die bescheuerte Idee kommen und behaupten das das Programm hier schlecht programmiert wurde: https://www.computerbase.de/forum/t...it-der-gpu-rechnen.426771/page-2#post-5483252up! Scheiße programmiert ist und bleibt scheiße programmiert. (Natürlich nur bei den ATI-Grakas). Du würdest doch auch sagen, wenn WinRAR nur auf AMD Quads auf 4 Kernen läuft, bei INTEL aber nur auf zwei, das es scheiße programmiert ist? Oder nicht?
Nur weil es besser auf ATI Karten läuft...
Oder Crysis, weil es ein Ruckerl besser mit Shaderleistung umgehen kann... Crysis ist zb. sehr gut Programmiert, allein der Physik Part ist genial! Nur weil man GPU Power braucht, sollte man nicht gleich einen Hass gegen solche Programme schieben...
Echte Namen wie "Evergreen" sind schöner "besser" als kryptische Bezeichnungen. Mein letzte AMD CPU hieß zb. "Newcastle". Gefällt mir viel besser als G90...demnächst kommt der chip "klaus-dieter". ja is das jetz n lowend, midrange oder highend-chip? welche generation?
Aber das ist wohl Geschmacksache und über Geschmack lässt sich sehr gut streiten wie wir wohl alle wissen.
Kann es sein das mit kleineren Strukturen mehr Ausschuss entsteht umso mehr Transistoren man auf den mm² packt? Kann es sein das in ein paar Jahren wenn es kritisch wird mit dem Shrinken bei ca. 16nm dann größere Packdichten wie zb. bei NV dann von Vorteil sein können, weil man dann nicht so viel Ausschuss hat? Oder ist ein größerer Chip immer schlechter als ein dicht gepackter wie bei ATI? Unyu vorallem deine Meinung interessiert mich...Achso .. komisch das dann weiter oben bei der Größe auf die schlechtere Packrate bei Nvidia verwiesen wird.
HD 4850 512MB ist aufgrund Vram Mangels teils langsamer als eine 8800GTX. Nicht immer, aber immer öfter. Grob kann man sagen sie sind gleich schnell, mit PhysX hat die HD 4850 keine Chance...Wird schon nicht allzu viel ausmachen. Die GTX 8800 hat auch ne 30% höhere Speicherbandbreite, als die ATI 4850 und ist trotzdem 10-15% langsamer
Ach da schau an, jetzt plötzlich auf einmal muss ATI keine Preis/Leistung mehr bieten und zum Enthusiast Anbieter werden. Ok das merk ich mirVoll Geil MANN!!!
Wo sind die Balken? (Monitor-Ränder?)
WILL HABEN!!!!
PREIS EGAL!!!!
Glaub auch das einer der 3 dann kaputt geht bzw. aus dem Markt raus muss weil wahrscheinlich kein Platz für 3 Hersteller ist. Intel hat quasi unendlich Geld und geht quasi nur freiwillig wieder wenn der Larrabee floppt. Oder sie probieren es so lange bis sie mit dabei sind, würd ich zumindest machen weil CPUs einfach zu ineffizient arbeiten im Performance per Watt Bereich.Ja ich bin mal gespant was passiert wenn Intel noch mit mischt eines Tages.
Aber solche Fehler wie bei Nivida gerade darf dann kein Hersteller mehr passieren, das wäre dann der Tod.
Nvidia: Krise um den GT300?
Chip-Ausbeute liegt aktuell unter 2 %
NV hat auch bedeutend mehr Kohle und Standbeine als AMD, daher denke ich das es sehr knapp wird für ATI. Es geht hald wie immer ums Geld. Naja mal schaun ob sich ein Monster Larrabee CPU@GPU überhaupt etablieren kann...
Aufm Servermarkt hat er alle Chancen der Welt und das könnte Intel sogar schon reichen bzw. das eigentliche Hauptziel von Intel sein!
y33H@ will ja nicht Korinthenkackern aber heißt das nicht GPGPU?Nein, er sagte, die GGPU-Leistung würde um den Faktor 570 steigen, nicht die GPU-Leistung.
Google bringt da ganz lustige Sachen zu GGPU:
GGPU.com Girls angequatscht und abgeschleppt und das erste Mal vor ...
NV entwickelt bereits heute GPUs die in 6 Jahren auf den Markt kommen, dh. die Entwicklungsabteilung kann schon ungefähr sagen wie schnell das ganze mal wird. GT300 ist vor 6 Jahren auf dem Reißbrett entstanden! Ihr kennt doch noch NVs extrem ordentliche Entwicklungsabteilung oder? https://www.computerbase.de/bildstrecke/22623/woher der genau 570 nehmen will, ist mir mehr als unklar.
Genauso, wie der 6 Jahre in die Zukunft sehen will, da kann noch alles mögliche passieren, das is ja ne Ewigkeit in der Branche
Rofl!Haste dich mal um die Babes gekümmert? Ist viel wichtiger als Jen Hsun
MfG Kasmo
Zuletzt bearbeitet:
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Unyu schrieb:Kann es sein das mit kleineren Strukturen mehr Ausschuss entsteht umso mehr Transistoren man auf den mm² packt? Kann es sein das in ein paar Jahren wenn es kritisch wird mit dem Shrinken bei ca. 16nm dann größere Packdichten wie zb. bei NV dann von Vorteil sein können, weil man dann nicht so viel Ausschuss hat? Oder ist ein größerer Chip immer schlechter als ein dicht gepackter wie bei ATI? Unyu vorallem deine Meinung interessiert mich...
... mich nicht, zumal er wie ne Fahne im Wind seine Aussagen - und die anderer - so dreht, wie es gerade passend ist. Ihr könnt euch aber weiterhin vorspielen, was für Vollprofis ihr doch seid (oder vielmehr zu sein glaubt), soll mir egal sein.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Naja, General GPU halt, also allgemeine Berechnungen.y33H@ will ja nicht Korinthenkackern aber heißt das nicht GPGPU
Sehr seltsame Eigenkreation, die du hier auspackst. Richtig heisst es General Purpose GPU.y33H@ schrieb:Naja, General GPU halt, also allgemeine Berechnungen.
Masterchief79
Captain
- Registriert
- Juni 2009
- Beiträge
- 3.238
Das sind 10 Zeichen, nur kleine Buchstaben... Kann aber trotzdem ein bisschen dauern o0@Masterchief79
geb mal einen Tipp über die Länge des Passworts
meine 9800 Gx2 muss ein bisschen belastet werden und schafft nur 1 Milliarde
Ich habs mal ungefähr berechnet, bei 14 Zeichen (alle nur kleine Buchstaben) würde meine 4870x2 bei 2,5M/s 800000 Jahre brauchen ó.Ò
Wie das bei 10 Zeichen ist weiß ich auch nicht, könnte aber ein bisschen dauern
Der Code müsste dann lauten: C:\ighashgpu.exe -c:s -h:0706fe5d42eaf180716e148bea1b523d -t:md5
Mit dem -c:[x] kann man aussagen, was für Kombinationen der durchprobieren soll.
- s: Small Letters
- c: Caps (Big Letters)
- d: Digits (Zahlen)
- e: Special (Sonderzeichen)
- p: Space (Leertaste)
- a: All
Zuletzt bearbeitet:
offiziell wissen wann das NDA fällt darf ja (genau wegen des NDAs) noch keiner, aber ich hab irgendwo Gerüchte von heute ~ 6:00 gelesen
EDIT: wobei das für mich eigentlich keinen Sinn ergibt, wenn es stimmt, dass die Karten in den USA am 22. und in Europa am 23. vorgestellt werden sollen (und somit jawohl auch das NDA fällt) denn um ~6-7:00 endet der 22. auch in den USA ja so langsam
EDIT: wobei das für mich eigentlich keinen Sinn ergibt, wenn es stimmt, dass die Karten in den USA am 22. und in Europa am 23. vorgestellt werden sollen (und somit jawohl auch das NDA fällt) denn um ~6-7:00 endet der 22. auch in den USA ja so langsam
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
http://www.tomshw.it/graphic.php?guide=20090923
Da, Jungs. Ist aber meist ohne AF gebencht. Ergo bissl geschönt für ATI.
Da, Jungs. Ist aber meist ohne AF gebencht. Ergo bissl geschönt für ATI.
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Bei AF verliert ATI mehr, bei AA weniger als nvidia.Skully107 schrieb:sind die ATIs nicht Benchmark mäßig in Sachen AA und AF schneller? es sieht halt nur schlechter aus das AF *flimmer* oder nicht?
China
http://translate.google.ch/translat...49/1493519.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Wer braucht schon 8x MSAA auf einer next Gen. GPUdafür ist 8x MSAA nahezu "kostenlos".
Edit: Zu den Benchmarks:
2x GTX 285 2048 @ SLI ist schneller
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Kasmopaya schrieb:Wer braucht schon 8x MSAA auf einer next Gen. GPU
Wer hat 8xAA jemals gebraucht? Doch nur die Benchmarker, die einen Unterschied in der Performance zwischen nvidia und ATI feststellen wollten.
Ähnliche Themen
- Antworten
- 369
- Aufrufe
- 51.595