Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Legt AMDs Sea-Islands-GPU nur um 15 Prozent zu?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Legt AMDs Sea-Islands-GPU nur um 15 Prozent zu?
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
Jep, aber die 6970 lag auch keine 15% vor der 5870, von daher passt das ins Schema. Es ist eben nur der Refresh und kein Shrink oder gar neue Architektur. Ich hab da nicht viel mehr erwartet.
Spannend wird's eher bei nVidia ob die ihren ominösen GK110 wirklich auf die Reihe bekommen und was der dann leistet (und verbraucht)
Spannend wird's eher bei nVidia ob die ihren ominösen GK110 wirklich auf die Reihe bekommen und was der dann leistet (und verbraucht)
Eigentlich enttäuschen mich zur Zeit alle IT Hersteller:
Intel war nicht willens mit Ivy-Bridge die Performance deutlich zu steigern. Mit Haswell wird sich vermutlich auch nichts ändern.
AMD ist nicht in der Lage konkurrenzfähige CPU's zu liefern.
Apple hätte kein Event für das neue iPhone abhalten müssen. Ich sehe kaum Neues.
Microsoft entwickelt an den Usern vorbei.
Wen wundert's wenn die Firmen Gewinnwarnungen ausgeben müssen. Mich nicht.
Intel war nicht willens mit Ivy-Bridge die Performance deutlich zu steigern. Mit Haswell wird sich vermutlich auch nichts ändern.
AMD ist nicht in der Lage konkurrenzfähige CPU's zu liefern.
Apple hätte kein Event für das neue iPhone abhalten müssen. Ich sehe kaum Neues.
Microsoft entwickelt an den Usern vorbei.
Wen wundert's wenn die Firmen Gewinnwarnungen ausgeben müssen. Mich nicht.
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.632
Jetzt mal ernsthaft, wer kauft sich denn noch Grafikkarten für 250€+ wenn die Karte von der letzten Generation zur kommenden dann auch nur so 15%+15% schneller ist?
Neue Features kommen auch nicht dazu.
Ich will jetzt irgendwann mal mehr Leistung haben, aber ich sehe nicht ein, meine 200€ Grafikkarte, die irgendwo auf dem Niveau eine 480/560Ti448/570 liegt durch eine nur dürftig schnellere Karte für einen deutlich höheren Preis auszutauschen.
Sowohl AMD als auch Nvidia müssen hier mal endlich wieder einen echten Schritt nach vorne bringen, wie damals bei DX11.
Neue Features kommen auch nicht dazu.
Ich will jetzt irgendwann mal mehr Leistung haben, aber ich sehe nicht ein, meine 200€ Grafikkarte, die irgendwo auf dem Niveau eine 480/560Ti448/570 liegt durch eine nur dürftig schnellere Karte für einen deutlich höheren Preis auszutauschen.
Sowohl AMD als auch Nvidia müssen hier mal endlich wieder einen echten Schritt nach vorne bringen, wie damals bei DX11.
Torr Samaho
Lieutenant
- Registriert
- Nov. 2009
- Beiträge
- 709
tobi14 schrieb:15% mehr -> genial, so kann man wirklich einmal beim wettrüsten als User bei der vorgänger generation bleiben ohne ein schlechtes gewissen zu bekommen man würde was verpassen
yep. ist eigentlich eine ordentliche verbesserung, wenn auch kein großer sprung.
nur, allein enthusiasten kaufen sich wegen 15% mehr eine neue graka. vor allem stört es mich, dass der aufpreis für diese leistung wesentlich höher als 15% liegen wird.
na toll, bin bei der hd 5870 geblieben in der hoffnung, dass die 8k reihe zu weihnachten mit 30% mehr leistung kommt, und dann das.
Pilstrinker
Commander
- Registriert
- Juli 2009
- Beiträge
- 2.101
Die Überschrift ist lächerlich, suggeriert sie doch, dass eine andere Erwartungshaltung bzgl. einer möglichen Leistungssteigerung existiert hätte, die nun nicht erfüllt würde.
Wie aber die meisten Kommentare hier zeigen, finden diejenigen, die sich ein wenig mit der Materie auskennen, 15% ganz in Ordnung.
Streicht einfach das "nur" heraus und gut ist. Ansonsten wirkt die Sache nämlich ein wenig zu offensichtlich auf Krawall gebürstet.
Wie aber die meisten Kommentare hier zeigen, finden diejenigen, die sich ein wenig mit der Materie auskennen, 15% ganz in Ordnung.
Streicht einfach das "nur" heraus und gut ist. Ansonsten wirkt die Sache nämlich ein wenig zu offensichtlich auf Krawall gebürstet.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
na toll, bin bei der hd 5870 geblieben in der hoffnung, dass die 8k reihe zu weihnachten mit 30% mehr leistung kommt, und dann das.
zur 5870 kommen sicher 30%
die 5870 war auf jeden fall ein guter kauf
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Herdware schrieb:So wie ich das sehe, hat Nvidia in Sachen Die-Größe, Verbrauch usw. diesmal mehr "Luft nach oben", als jemals zuvor in den letzten 6 Jahren.
Man liegt im Moment auf einem Niveau mit AMD. Interessant wird es ob AMD ihre Die-Größe beibehält oder sich mehr an Nvidia orientiert. GK104 ist 38% größer als nen Pitcairn und der ominöse GK110 wird ja auch >30% größer als nen Tahiti ausfallen, wenn er mal kommen sollte.
Die-Größe skaliert ja ganz gut mit der Leistung. Siehe Cape Verde (123mm²) vs. Pitcairn (212mm²). Pitcairn liefert bei 72% mehr Die-Fläche 77% mehr Leistung.
B
boxleitnerb
Gast
bigot schrieb:Wenn die 30% Steigerung anfangs auf die HD 7970 bezogen waren, und die 15% sich aktuell an der HD 7970 GHz orientieren, passt doch alles halbwegs.
Edit: Dann hätten wir 26,5% Steigerung gegenüber der ursprünglichen HD 7970... 3,5% mehr oder weniger, wen juckt das wirklich? Für ein Drama reicht das mMn nicht aus.
Ich denke auch, dass die 30% auf die non-GHz Edition bezogen war. 15% mehr ist für einen Refresh voll ok. Nvidia wird auch nicht mehr schaffen mit GK114.
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
15% bei konsolenportüblichen 500 fps sind ja eh ne steigerung von 75fps ist doch super .
Also ich weis nicht was alle immer haben
Auch 15% solange das eher eine minimum Steigerung ist und nicht zu sehr nach unten streut ist doch ganz ok wenn die tdp gleichbleibt !
Also ich weis nicht was alle immer haben
Auch 15% solange das eher eine minimum Steigerung ist und nicht zu sehr nach unten streut ist doch ganz ok wenn die tdp gleichbleibt !
Begehmann
Cadet 4th Year
- Registriert
- Aug. 2008
- Beiträge
- 87
Wenn man sich anschaut was zum Beispiel Fudzilla zum Thema Oland-GPUs schreibt, fragt man sich ohnehin wo diese völlig überzogenen Erwartungen herkommen.
Da schreiben die also, dass ein größerer Die mit der selben Fertigung mit einer geringeren TDP auskommen soll. Wie soll das denn bitteschön funktionieren? Die einzige mögliche Lösung wäre wenn sie entweder was am Design der Ausführungseinheiten ändern oder die Bauweise/Funktion der aufbelichteten Transistoren verbessern würden. Problem ist nur: bei einem einfachen Refresh macht sich die Arbeit niemand. Da würde man gleich neu entwickeln.
Noch besser finde ich dass die neue Chipgeneration angeblich günstiger werden soll als die jetzige. Und das ist ja wohl totaler Schwachsinn! Erstens würde das sämtlichen Marketing-Gesetzen widersprechen, und zweitens - siehe oben - soll der Die größer werden. Und ein größerer Die == mehr Fertigungsverluste == schlechtere Chipausbeute == höherer Preis.
Für mich klingt das so als ob die bis jetzt veröffentlichten Details ohnehin nur Wunschdenken waren und jetzt sind alle enttäuscht dass die Wirklichkeit nicht hinterherkommt.
Da schreiben die also, dass ein größerer Die mit der selben Fertigung mit einer geringeren TDP auskommen soll. Wie soll das denn bitteschön funktionieren? Die einzige mögliche Lösung wäre wenn sie entweder was am Design der Ausführungseinheiten ändern oder die Bauweise/Funktion der aufbelichteten Transistoren verbessern würden. Problem ist nur: bei einem einfachen Refresh macht sich die Arbeit niemand. Da würde man gleich neu entwickeln.
Noch besser finde ich dass die neue Chipgeneration angeblich günstiger werden soll als die jetzige. Und das ist ja wohl totaler Schwachsinn! Erstens würde das sämtlichen Marketing-Gesetzen widersprechen, und zweitens - siehe oben - soll der Die größer werden. Und ein größerer Die == mehr Fertigungsverluste == schlechtere Chipausbeute == höherer Preis.
Für mich klingt das so als ob die bis jetzt veröffentlichten Details ohnehin nur Wunschdenken waren und jetzt sind alle enttäuscht dass die Wirklichkeit nicht hinterherkommt.
Morrich
Banned
- Registriert
- Feb. 2012
- Beiträge
- 3.946
In meinem Rechner stekcht noch immer eine HD5750 und ich komme ganz gut mit der Karte aus. Daher würde es mich nicht sonderlich stören, wenn die Leistung nicht großartig weiter steigt.
Mir wärs eh lieber, wenn sich der Stromverbrauch auch von performanteren Karten nochmal ein Stück nach unten bewegen würde. Das ist dieser Tage eigentlich viel wichtiger als immer mehr Rohleistung, die man in den meisten Fällen doch eh nicht wirklich benötigt.
Mir wärs eh lieber, wenn sich der Stromverbrauch auch von performanteren Karten nochmal ein Stück nach unten bewegen würde. Das ist dieser Tage eigentlich viel wichtiger als immer mehr Rohleistung, die man in den meisten Fällen doch eh nicht wirklich benötigt.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Begehmann schrieb:Die einzige mögliche Lösung wäre wenn sie entweder was am Design der Ausführungseinheiten ändern oder die Bauweise/Funktion der aufbelichteten Transistoren verbessern würden. Problem ist nur: bei einem einfachen Refresh macht sich die Arbeit niemand.
Niemand außer Nvidia, bei GF100 -> GF110.
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.128
Die Entwicklung in der IT-Branche, speziell was Anzeigegeräte und Prozessoren angeht, ist für mich sehr uninteressant geworden in den letzten Jahren.
Ein passendes Gespräch hatten wir zufälligerweise gerade im Büro, in dem ich behauptete (und weiterhin der Meinung bin), dass uns in den nächsten Jahren im Bereich der GPU/CPU-Entwicklung nichts wirklich Bahnbrechendes erwarten wird.
Wir sind aktuell an einem Punkt angelangt, an dem wir physikalische Grenzen abstecken und die Forschung sich schwer tut, neue Wege zu finden, um eine positive Entwicklung weiter voranzutreiben.
Die einzig wirklich als realistisch zu betrachtende These lautet für mich: APU/APPU/MPU/MPPU (und wie auch immer man sie nennen mag), also "All Purpose Processors" - praktisch Chips, die keinen Unterschied mehr darin sehen, ob nun ein gängiger x86-Code, oder aber ein spezieller Grafikcode oder sonstige RISC/CISC-Aufgaben ausgeführt werden.
Die Techniken von CPU und GPU werden in den nächsten Jahren verschmelzen und beide Platzhirsche forschen ja schon eine ganze Weile daran herum.
Damit meine ich nicht die integrierten Grafikkerne in aktuellen Prozessoren, sondern Stichword Larrabee - also auch GPGPUs.
Aber nicht nur der Hardwaremarkt stagniert langsam, auch das Softwareangebot für Spieler ist doch irgendwo etwas abgeflaut die letzten Jahre.
Selten sieht man nochmal Genreperlen, noch seltener werden neue Genres erschlossen und überhaupt mit erwähnenswerten Titeln betreten (Ausnahmen gibt's immer wieder - z.B. Minecraft - was aber gewiss keine Hardwareneuheiten erfordert).
Grafisch hat sich seit dem ersten Crysis immer noch nichts getan, wer das Gegenteil behauptet, lügt. Es wurden höchstens gleichwertige Titel geliefert, die deutlich optimierter und besser programmiert wurden.
Was also soll geschehen? Was erwartet der Spieler vom Hardwaremarkt der Zukunft und was ist tatsächlich realistisch?
Meine Güte, vielleicht sollte ich mal Kolumnen schreiben
PS:
Weitet das Thema mal auf Anzeigegeräte (also Bildschirme im PC- und Unterhaltungsbereich) aus - also für euch, nicht hier den Thread zumüllen natürlich. Da sieht es ganz genauso aus. Ausser, dass die Geräte immer größer und verhältnismässig günstiger werden und VIELLEICHT noch das brillenlose 3D etwas auf Vordermann gebracht wird, wird sich da in den nächsten... sagen wir mal... 20 Jahren... nichts Neues ergeben! Von Projektion IN DEN RAUM HINEIN sind wir wahrscheinlich sogar noch länger entfernt.
Cya, Mäxl
Ein passendes Gespräch hatten wir zufälligerweise gerade im Büro, in dem ich behauptete (und weiterhin der Meinung bin), dass uns in den nächsten Jahren im Bereich der GPU/CPU-Entwicklung nichts wirklich Bahnbrechendes erwarten wird.
Wir sind aktuell an einem Punkt angelangt, an dem wir physikalische Grenzen abstecken und die Forschung sich schwer tut, neue Wege zu finden, um eine positive Entwicklung weiter voranzutreiben.
Die einzig wirklich als realistisch zu betrachtende These lautet für mich: APU/APPU/MPU/MPPU (und wie auch immer man sie nennen mag), also "All Purpose Processors" - praktisch Chips, die keinen Unterschied mehr darin sehen, ob nun ein gängiger x86-Code, oder aber ein spezieller Grafikcode oder sonstige RISC/CISC-Aufgaben ausgeführt werden.
Die Techniken von CPU und GPU werden in den nächsten Jahren verschmelzen und beide Platzhirsche forschen ja schon eine ganze Weile daran herum.
Damit meine ich nicht die integrierten Grafikkerne in aktuellen Prozessoren, sondern Stichword Larrabee - also auch GPGPUs.
Aber nicht nur der Hardwaremarkt stagniert langsam, auch das Softwareangebot für Spieler ist doch irgendwo etwas abgeflaut die letzten Jahre.
Selten sieht man nochmal Genreperlen, noch seltener werden neue Genres erschlossen und überhaupt mit erwähnenswerten Titeln betreten (Ausnahmen gibt's immer wieder - z.B. Minecraft - was aber gewiss keine Hardwareneuheiten erfordert).
Grafisch hat sich seit dem ersten Crysis immer noch nichts getan, wer das Gegenteil behauptet, lügt. Es wurden höchstens gleichwertige Titel geliefert, die deutlich optimierter und besser programmiert wurden.
Was also soll geschehen? Was erwartet der Spieler vom Hardwaremarkt der Zukunft und was ist tatsächlich realistisch?
Meine Güte, vielleicht sollte ich mal Kolumnen schreiben
PS:
Weitet das Thema mal auf Anzeigegeräte (also Bildschirme im PC- und Unterhaltungsbereich) aus - also für euch, nicht hier den Thread zumüllen natürlich. Da sieht es ganz genauso aus. Ausser, dass die Geräte immer größer und verhältnismässig günstiger werden und VIELLEICHT noch das brillenlose 3D etwas auf Vordermann gebracht wird, wird sich da in den nächsten... sagen wir mal... 20 Jahren... nichts Neues ergeben! Von Projektion IN DEN RAUM HINEIN sind wir wahrscheinlich sogar noch länger entfernt.
Cya, Mäxl
Dr. MaRV
Admiral
- Registriert
- Aug. 2006
- Beiträge
- 8.174
Ich bin kein Chipentwickler aber ich bin der meinung das 15% Steigerung ein guter Wert sind. Man ist bereits nah an der Grenze des aktuell machbaren, da wird es umso schwieriger noch etwas zu zulegen. Noch kleinere Strukturen und es treten bald Quanteneffekte auf die zukünftig berücksichtigt werden müssen und es den Ingenieuren noch schwerer machen.