News Gerüchte zur Radeon HD 8850 und 8870 (Oland) aufgetaucht

Lost_Byte schrieb:
Einige benötigen die Leistung bereits seit Monaten.

Was heißt bei dir "benötigen"? Mindestanforderungen? Wer die Mindestanforderungen nicht erfüllt der soll selbstverständlich aufrüssten, dagegen habe ich ja nie etwas gesagt.

"Benötigen" kann aber auch Kopfsache sein. Mein Kumpel hat einen Q6600 und eine HD 5770 und der ist vollkommen zufrieden und kann ALLES zocken.

Meine Kernaussage ist: Ende 2013 steht uns der größte Grafiksprung seit 2006 ins Haus und wer nicht unbedingt neue Hardware braucht, sollte vielleicht mal darüber nachdenken ob er nicht bis dahin wartet.

Man erlebt hier im Forum gerade die totale Schizophrenie: Erst wird immer rumgeheult das die Konsolen dafür sorgen das die Grafik stagniert und plötzlich kann man gar nicht häufig genug aufrüssten. Entscheidet euch mal...
 
CD schrieb:
50 MHz Turbo... CPU-Hersteller würden für sowas ausgelacht werden. 1100 gegenüber 1050 MHz sind sowas wie 5 % Steigerung, oder in FPS ausgedrückt: wayne... also warum so einen Modus einführen wenn er groß nix tut? Andererseits sind es nur Gerüchte...

Seit wann ergibt sich die Leistungsfähigkeit einer GPU oder CPU rein aus der Taktfrequenz?
Mein Pentium 4 hatte 3 GHz, meine Q6600 hat 2,4 GHz - der Q6600 trotzdem wesentlich schneller.
 
nanoworks schrieb:
Da wären wir wie gesagt wieder bei meiner ursprünglichen These:

Wer mit einer HD 5850 bis Ende 2012/Anfang 2013 durchgehalten hat, der kann damit auch locker noch bis Ende 2013/Anfang 2014 auskommen, denn dann wird uns ein großer Grafiksprung erwarten. Vorher nicht.

nanoworks schrieb:
Und was ist wenn die HD 9000 40% schneller ist als die HD 8000?

Jetzt beantworte mir mal folgende Frage ganz gewissenhaft:

Wird man die zusätzliche Leistung schon Ende 2012 benötigen oder doch erst ab Ende 2013? Wann kommt der Grafiksprung? 2012 oder 2013? Dieser Thematik weichst du immer geschickt aus, obwohl sie meine Kernaussage ist.

Für mich ist das eine ganz eindeutige Sache. Bevor der durchschnittliche User schon 2012 zuschlägt und die zusätzliche Leistung in super hohe Auflösungen, SSAA oder Triple-Monitoring steckt, kann er die paar Monate auch mit 4xMSAA und 16xAF auskommen, ein bisschen auf die schnellere HD 9000 warten und diese Leistung für Next-Gen Games nutzen.

Letztendlich könnt ihr ja alle machen was ihr wollt. Ich habe aus der Vergangenheit gelernt und werde mir nicht ein paar Monate vor einen neuen Konsolengeneration neue Hardware kaufen und ich werde das auch niemanden empfehlen. Das habe ich 2005 gemacht und dabei habe ich mein Geld aus dem Fenster geworfen. Ein Jahr später konnte ich wieder aufrüssten und sowas ist Bullshit.

Pauschal kannst du deine gestellte Frage nicht beantwortet haben. Zudem bin ich nicht so arrogant und übertrage meine Ansprüche auf andere. Du denkst anscheinend, du weißt was jeder braucht und will, egal in welchem Segment und wie groß seine/ihre Toleranzgrenze ist. Falsch gedacht. Man rüstet dann auf, wenn einem die Leistung für die eigenen Ansprüche nicht mehr reicht und wenn es gute Angebote auf dem Markt gibt. Gerade Letzteres spricht sonnenklar für den Jahreswechsel 2012/2013, wenn man ein bisschen logisch nachdenkt.

Wenn die HD9000 40% schneller als die HD8000 ist, wird man das mit überproportional hohen Preisen zahlen müssen, das hab ich aber schonmal gesagt.

Was für ein Grafiksprung? Ob einer kommt, wann und welches Ausmaß er hat, weißt du nicht. Zudem gibt es - auch das sagte ich bereits - genug Spiele, die auch heute schon mehr Leistung brauchen, auch ohne SSAA und Co. Da reicht ein einzelner großer Monitor schon aus.

Und jemand, der jetzt mehr Leistung benötigt (zum dritten Mal: Es gibt NICHT nur High End), soll also bis Ende 2013 warten, die zwei zusätzlichen Monitore abschalten, auf eine interpolierte matschige Auflösung zurückgehen, mit Ruckeln leben und sich dann schließlich mit schlechter Verfügbarkeit, hohen Preisen, unausgereiften Treibern herumschlagen? Prost Mahlzeit.

Zudem ist der Fortschritt heute langsamer als 2005, das kommt noch dazu. Scheint aber schwer für dich zu sein, einzugestehen, dass du bei deinem Post nicht nachgedacht hast.
 
Zuletzt bearbeitet:
@ata2core: Dein Vergleich hinkt. Der Q6600 hat auch 4 Kerne, während der P4 nur bei 1 liegt. man könnte eher den IPC Unterschied bei den Athlon 64 und den P4 nehmen um ihm das zu verdeutlichen.
Das ändert aber nichts daran, dass der Turbo bei der Karte max. eine Mehrleistung von 5% erzeugt gegenüber der Karte ohne Turbo.

@nanoworks: Demnach brauche ich auch keinen Bagger. Ich kann mich auch mit ner Schaufel da hin stellen und Löcher für Fundamente buddeln. Dauert zwar länger. Ist nicht gerade schön für mich, aber ja auch nur ne Kopfsache.
Und das, was man erlebt ist keine Shizophrenie. Wenn schon, dann dissoziative Identitätsstörung (bzw multiple Persöhnlichkeitsstörung). Fast jeder hier im Forum sagt, dass man aufrüsten soll, wenn man die Leistung braucht. Wie hoch der Leistungszuwachs in der Zukunft sein könnte ist daher vollkommen egal. Keiner hier hat gesagt, dass man auf die 8000er Generation aufrsten muss. Es wurde lediglich gesagt, dass man nicht unbedingt über ein Jahr warten soll, nur weil später mal was besseres kommt. Das könnte man dann nach dem Jahr auch wieder machen. Und danach auch. Und dann ist man 80 und die Rente reicht nicht mehr um sich eine neue Grafikkarte zu leisten, die dann in Picometer gefertigt wird ;)
 
ata2core schrieb:
Seit wann ergibt sich die Leistungsfähigkeit einer GPU oder CPU rein aus der Taktfrequenz?
Mein Pentium 4 hatte 3 GHz, meine Q6600 hat 2,4 GHz - der Q6600 trotzdem wesentlich schneller.

Du vergleichst zwei verschiedene Architekturen, die 1050MHz werden aber mit 1100MHz der GLEICHEN KARTE (sprich gleicher Chip, gleiche Architektur :freak:) verglichen, da kannst Du sehr wohl daraus ableiten, dass es 5% sind und damit die FPS Unterschiede schon fast innerhalb der Messtoleranz liegen...
 
Ich kann mir nur sehr schwer vorstellen, dass die 88xx bei gleichem Fertigungsprozess 20% mehr Transistoren und Die-Fläche hat, dabei aber weniger verbraucht und 20% weniger kosten soll UND auch noch schneller ist als die Vorgängerserie.

Wenn AMD das wirklich bringen sollte, kauf ich so ein Teil (und das wäre die erste Radeon in meinem Leben :D)
 
Ich hab es schon mal gesagt: Kauft euch die HD8000 und werdet damit glücklich. Wenn ihr meint ihr "braucht" urplötzlich ein Jahr vor Release der neuen Konsolen eine neue Grafikkarte, dann ist das euer Bier.

Zwischen PS360 und der Next-Gen liegen acht Jahre technologischer Fortschritt. Wer da tatsächlich argumentiert, das der Grafiksprung nicht absehbar ist, den kann man doch nicht ernst nehmen...
 
Du vergisst hier leider, dass sich PC-Spiele längst nicht mehr auf dem Niveau von 2005/2006 befinden. Der Grafiksprung von alter Konsole zu neuer Konsole wird groß sein, ja. Aber von heutigen Spielen zu den neuen Konsolenspielen?

Und zum "urplötzlich brauchen":
Das so herablassend zu formulieren ist einfach unangebracht. Wenn jemand schon 3-4 Jahre gewartet hat und aktuelle Titel nicht gescheit spielen konnte, für den ist es eine durchaus vernünftige Option, bei einem guten PLV beim Refresh in der Mitte einer Generation aufzurüsten.

Möglichkeit 1:
Früher schon mehr Leistung haben (+)
Gutes PLV (+)

Deine Möglichkeit 2:
Ein "paar" Monate (eher 12-15) weiter Kompromisse eingehen (-)
Schlechtes PLV (-)

Fakt ist, du schreibst nur Stuss und kannst deine Ausführungen nicht anständig und fehlerfrei begründen.
 
Zuletzt bearbeitet:
@halskrause:
Na dann wart mal die Wochen vor dem 8000er-Release ab, dann werden die nächsten nVidia-Karten geteaset ;)

@nanoworks:
Dann müssten nVidia und AMD ja seit Jahren die Grafikkarten-Entwicklung drosseln, damit dieser Sprung im PC-Markt möglich ist. Meinst du, die hauen plötzlich eine neue, im stillen Kämmerlein entwickelte und ertragreiche nm-Fertigung raus, verdoppeln den VRAM etc.? Im Gegensatz zu damals ist der Stromverbrauch heute ein wichtigeres Argument, die werden nicht plötzlich 500W-Grafikboliden raushauen, dann brauch man gleich ein neues Kühlsystem und Netzteil, was den Anschaffungspreis in die Höhe schnellen lässt.
 
bruteforce9860 schrieb:
@halskrause:

Im Gegensatz zu damals ist der Stromverbrauch heute ein wichtigeres Argument, die werden nicht plötzlich 500W-Grafikboliden raushauen, dann brauch man gleich ein neues Kühlsystem und Netzteil, was den Anschaffungspreis in die Höhe schnellen lässt.

Die PS3 hatte eine maximale Leistungsaufnahme von 380Watt und im Spielbetrieb von manchmal über 200Watt. Daher sollte man mit diesen PS3-Angaben doch sehr weit in der nächsten Generation mit der Leistung kommen. CPU schluckt nicht viel und mit HSA sollte man verstärkt die CPU-Leistung steigern und eine gescheite GPU schluckt auch bis höchstens 200Watt bei TDW-Angaben und im Spielbetrieb weit unter 200Watt. Daher sehe ich da kein Problem, wenn man sich an der letzten Gen orientiert :D
 
Zuletzt bearbeitet:
nanoworks schrieb:
Zwischen PS360 und der Next-Gen liegen acht Jahre technologischer Fortschritt. Wer da tatsächlich argumentiert, das der Grafiksprung nicht absehbar ist, den kann man doch nicht ernst nehmen...

Was in Deiner oft retizierten Überlegung fehlt, ist die Tatsache, dass ein aktueller Titel, welcher auf PC optimiert wäre, bereits einen Quantensprung in Sachen Grafik zur alten Konsolengeneration darstellen würde. Oder andersrum: man stelle sich Battlefield 3 mit FullHD Auflösung, Kantenglättung, "ultra" Einstellungen und konstanten 60FPS und 64 Spieler auf einer Konsole vor. Momentan braucht es dazu nen i7, 8GB RAM und ne GTX680/HD7970 und ein 500W Netzteil. Klingelts? Baue mal eine Konsole mit diesen HW-Komponenten in der Grösse einer aktuellen PS3 SLIM. Ich behaupte, dass der Grafiksprung tatsächlich eintreffen wird, aber NUR verglichen mit den PS3 Release-Titel. Ich glaube kaum, dass die Next-Gen Konsole wesentlich mehr leisten kann (beim Release, wohlbemerkt) als ein zu dieser Zeit aktueller PC und die Grafik dürfte sich in etwa auf FC3-Niveau bewegen, maximal. Mehr ist schlicht nicht möglich...
 
CD schrieb:
..1100 gegenüber 1050 MHz sind sowas wie 5 % Steigerung, oder in FPS ausgedrückt: wayne..
Der Chip wird ja "grösser" mehr Hardware-Einheiten zum Vergleich der 7870er und niedrige Leistungsaufnahme.
Vor allem Computing und Textur Leistung steigt enorm an.

 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Du vergisst hier leider, dass sich PC-Spiele längst nicht mehr auf dem Niveau von 2005/2006 befinden. Der Grafiksprung von alter Konsole zu neuer Konsole wird groß sein, ja. Aber von heutigen Spielen zu den neuen Konsolenspielen?

Vor jeder neuen Gen der selbe Müll... :lol:

Die heutigen Spiele werden mit PS360 als Basis designed. Denkst du das BF3 auf dem PC wesentlich besser aussieht als auf der Konsole? Da werden doch nur ein paar Regler verschoben: Auflösung erhöht, Kantenglättung erhöht, Texturfilterung erhöht, Texturauflösung erhöht, usw. Es sieht "cleaner" aus, aber im komprimierten youtube Video sieht man kaum noch Unterschiede zwischen PC und Konsole, denn die Grafik ist im Großen und Ganzen die selbe.

Wenn BF4 für die PS4/XBox 720 erscheint, dann werden diese neuen Konsolen den Takt vorgeben. Dann werden die Models, die Texturen, die Physik, usw von Anfang an auf die deutlich leistungsfähigere Hardware zugeschneidert sein. Vergleich doch alleine mal BF2 und BF3. Das ist ein Unterschied wie Tag und Nacht, selbst wenn du beides mit super duper HQ-AF und hyper mega Downsampling darstellen lässt, BF2 sieht total veraltet aus, die Häuse sind alles nur Schuhkartons, die Geometrie ist lächerlich simpel.

Denkst du die Entwickler produzieren für den PC extra super rechenintensive Animationen nur weil man da so viel Rechenleistung hat? Ganz sicher nicht... Der PC kriegt das selbe Material wie die Konsolen, nur bei ihm wird es (mehr oder weniger) auf Hochglanz poliert.

@Ankh:

Optimierung. Mehr braucht man dazu nicht sagen. Windows 7 verbraucht im Idle fast mehr Speicher als die PS3 und XBox 360 zusammen haben. Ein Windows PC ist keine Konsole.
 
aber im komprimierten youtube Video sieht man kaum noch Unterschiede zwischen PC und Konsole, denn die Grafik ist im Großen und Ganzen die selbe.

Was für einen Käse du hier ablässt, ist ja kaum zu glauben. Das ist eigentlich schon signaturwürdig.

Wenn ein Spiel ordentlich portiert ist, sieht es selbstredend deutlich besser auf dem PC aus als auf Konsole. Viele Konsolenspiele laufen nichtmal in 720p und dann noch ohne AA. Da kriegt man doch Augenkrebs von. Allein der Schritt zu 1080p hin wird einen Großteil der Leistung verschlingen.

Ich frage dich explizit nochmal:
Warum soll man bei schon viel früherem Bedarf neue GPUs mit einem vergleichsweise schlechten PLV kaufen, nur damit es gleichzeitig mit dem ach so tollen Grafiksprung ist?
 
Zuletzt bearbeitet:
x-polo schrieb:
Der Chip wird ja "grösser" mehr Hardware-Einheiten zum Vergleich der 7870er und niedrige Leistungsaufnahme.
Vor allem Computing und Textur Leistung steigt enorm an.
(...)

Ich vergleich ja auch die 1050 MHz auf der 8870 mit 1100 MHz auf der gleichen Karte. Unter den Generationen kann man natürlich nicht nur mit Takten argumentieren, da spielen auch noch ganz andere Faktoren eine Rolle (Architektur, Anzahl Transistoren, Speicherbandbreite usw). Aber auf dem selben Chip machen halt 5 % mehr Takt bestenfalls 5 % Rechenleistung aus, mehr nicht. Dass die 88XX bei gleichem Takt schneller sein wird als die 78XX müssen wir nicht diskutieren.
 
@boxleitnerb

Ich rede Stuss? Du bist doch derjenige der an seiner absurden Theorie festhält, das wir mit der Next-Gen keinen Grafiksprung erleben werden...

Und wie du in einem Youtube Video den Unterschied zwischen 1080p Spielszene und 720p Spielszene erkennen kannst, würde ich auch mal gerne wissen.

Ich denke nicht das du verstehst wovon ich rede. LoD, Auflösung und Filter hochdrehen hat mit Next-Gen Grafik nix zu tun. Aber das wirst du in ein paar Monaten selber sehen.


Hier kannste dich mal beweisen:

http://www.youtube.com/watch?v=ISxHZT55A3Y

Current-Gen oder Next-Gen? Konsole oder PC? 720p oder 1080p? MSAA oder FXAA? Ich bin gespannt. Oder ist das dann doch nicht mehr so einfach wie du behauptest?
 
Zuletzt bearbeitet:
Was willst du immer mit deinem Youtube? Komprimierst du die Grafikausgabe deines PCs oder deiner Konsole etwa, lädst sie hoch und schaust dir dann nachher die Videos an, statt einfach auf deinen Fernseher oder Monitor zu schauen, während du spielst? Ich beurteile Spielegrafik nicht anhand von komprimiertem Material unterhalb der Renderauflösung. Außerdem gehört zu einem Vergleich auch dazu, dass man zwei Sachen vergleicht, nicht ein Video hingeklatscht bekommt. Aber auf so Käse lass ich mich gar nicht ein.

Du hast die Frage mit dem PLV immer noch nicht beantwortet.

Außerdem wird es immer teurer, guten Content zu produzieren. Schon das setzt der Entwicklung Grenzen, beim Übergang zu Free2play erst recht.
 
Zuletzt bearbeitet:
Das Video ist selbst nur 720p. Also wie soll man da was einschätzen können?
Du bist sehr OT.
 
Zurück
Oben