News Nvidia und AMD äußern sich zur GeForce GTX 700

Pilstrinker schrieb:
Fakt: nVidia hatte 2012 nichts Stärkeres am Start.

Fakt: AMD hat 2013 nichts Stärkeres am Start und hat nicht vor es zu ändern.
 
NV hat auch nachgelegt - in Form der 700er Reihe (naja + Titan). Bei den 20nm wird AMD wohl, so wie es zur Zeit aussieht vorlegen. Aber auch da ist es mM nach klüger zu warten bis NV Konkurrenzprodukte rausgebracht hat, alleine schon des Preiskampfes wegen.
 
Warum beschwert ihr euch? Die GTX680 war langsamer als die 7970 und hatte weniger Speicher und wurde trotzdem gut verkauft trotz eines weit höheren Preises. Nun sieht man das die 7970 GHz eher mit der GTX780 konkuriert was die Leistung betrifft.

Wenn alle dann trotzdem zu einer Nvidia greifen änder sich nichts. Titan ist nur das i-Tüpfelchen, alles selbst gemachte Leiden durch Bevorzugung eines Herstellers. Meines Erachtens heulen nur die rum die nie eine AMD kaufen würden, aber sich dannüber den fehlenden Wettbewerb beschweren. In dem wichtigen Bereich unter 400€ bietet AMD das weit bessere P/L-Verhältnis. Oder will hier jeder Zweite 1000€ für eine Grafikkarte ausgeben. :rolleyes:

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index45.php
 
Zuletzt bearbeitet:
Ich verstehe überhaupt nicht was AMD sich darüber so aufregt, Nvidia kann die Karten so gestalten und Vermarkten wie sie wollen das geht AMD garnichts an, die sollen sich auf ihre Produktpalette konzentrieren.
 
Ich hoffe, dass ich mit den Titan'en erstmal ein paar Jahre über die Runden komme, schließlich geben die neuen Konsolen das Tempo vor.

Wenn es jetzt so weitergeht wie Intel die "Handbremse" anzieht, sehe ich das ganz rosig mit der Titan lange auszukommen.

Das hätte mal was postives wenn man nur noch jede 2te oder 3te Generation von Grafikkarten mitmachen "muss".
 
Higgs Boson schrieb:
Ich verstehe überhaupt nicht was AMD sich darüber so aufregt, Nvidia kann die Karten so gestalten und Vermarkten wie sie wollen das geht AMD garnichts an, die sollen sich auf ihre Produktpalette konzentrieren.
Hast du dir den Text überhaupt durchgelesen? AMD hat gar nichts gegen Nvidia´s 700-er Karten gesagt. AMD hat nur gesagt, dass es in Ordnung ist, für den minimalen Fortschritt ´ne neue Serie rauszubringen...

Tenchi Muyo schrieb:
Wenn es jetzt so weitergeht wie Intel die "Handbremse" anzieht, sehe ich das ganz rosig mit der Titan lange auszukommen.
Mit der Titan wirst du schon lange auskommen (gerade jetzt kommt der Fortschritt im Desktopmarkt ja besonders langsam)
Aber was meinst du mit einer Handbremse seitens Intel?
 
Zuletzt bearbeitet:
Ich hoffe, dass ich mit den Titan'en erstmal ein paar Jahre über die Runden komme, schließlich geben die neuen Konsolen das Tempo vor.

Das kommt wohl ganz drauf an ob du immer die beste Bildqualität benötigst. Manche kommen mit weit schwächeren Karten Jahre aus. Wenn es immer maxed out sein soll seh ich in spätestens 1-2 Jahren schwarz. Ist ja nicht so dass die Titan in Sachen Leistung nen Quantensprung hingelegt hat. Aber von der Speichermenge biste schon mal gut aufgestellt.

gerade jetzt kommt der Fortschritt im Desktopmarkt ja besonders langsam

Sollte AMD Ende des Jahres nicht schon auf 20nm setzen wirst du Recht behalten. Dann würde ich aber nicht verstehen warum man nicht jetzt schon eine "neue" Generation rausbringt und Nvidia das Feld überlässt. Ein Refresh sollte schon längst fertig sein. Evtl gibt es wieder so einen Ausblick wie beim Tahiti. Vorstellung Ende des Jahres kaufbar im ersten Quartal 2014.
 
Tenchi Muyo schrieb:
Das hätte mal was postives wenn man nur noch jede 2te oder 3te Generation von Grafikkarten mitmachen "muss".
Soweit sind wir doch schon seit Jahren. Oder wer holt sich wegen 30% Mehrleistung eine neue GPU für 500€? Allenfalls Entusiasten.
 
Jetzt ist die Frage ob man das nun positiv oder negativ bewerten will. Zum einen bremst eine langsamere Hardwareentwicklung die Softwareentwicklung aus (wobei hier vor allem die Konsolen einen hohen Einfluss haben), dazu kommt der große zeitliche Abstand bis die Leistung erhöht wird, was vor allem bei Games wie Crysis 3 für den ein oder anderen sicherlich unschön ist.
Auf der anderen Seite ist es so einfacher "ganz oben" mit dabei zu sein; ursprünglich wollte ich ja billiger schreiben, aber in Zeiten von 1000€ GraKas würde ich eher von theoretisch billiger reden.
 
Kann mich mal wer aufklären ... was hat das immer mit der hier im Forum erwähnten "Computing-Leistung" auf sich und in welchen Einsatzbereichen ist diese relevant?
 
Ein praktisches Beispiel für Computing in Games wäre z.B. Tress FX in Tomb Raider. Im Prinzip werden speziell Aufgaben der CPU an die GPU übertragen. In diesem Artikel wird auch darauf eingegangen für was Computing in Spielen gebraucht wird:

http://www.pcgames.de/PlayStation-4...sagen-zur-Power-von-PS4-und-Xbox-One-1072856/

"PS4 und Xbox One haben einen Grafikchip mit mehreren dieser sogenannten Compute Units (CUs). Diese Recheneinheiten können nicht nur Grafikberechnungen anstellen, sondern auch allgemeine CPU-Funktionen übernehmen. Doch abgesehen von Sonys Physikdemo gab es da nur wenig anschauliche Beispiele. Wie also könnten diese neuen Recheneinheiten in Spielen genutzt werden?
Jere Sanisalo: Die CUs sind prima für jede Aufgabe geeignet, die viel Bandbreite und Rechenleistung benötigt, aber nicht sehr viel Logik. Damit meine ich, dass sie besser für kleinere Aufgaben geeignet sind, die wiederholt auf einen großen Datensatz angewendet werden. Wie ihr erwähnt habt, ist da die Physikberechnung ein wichtiger Einsatzzweck, doch die Compute Units berechnen nicht wirklich die "Physik". Vielmehr übernehmen sie viele kleinere Aufgaben, die zusammen eine Physiksimulation ergeben. Zu diesen Aufgaben gehören etwa die Kollisions-Erkennung, Starrkörper-Update und weitere. CUs erledigen aber auch alle anderen, derartig zahlen-intensiven Aufgaben.
Dazu zählen auch die Simulation weicher Gegenstände, die Simulation von Flüssigkeiten und Gasen, erweiterte Audio-Verarbeitung und –Abmischung, Berechnung fortgeschrittener Animationen, komplexe KI und Wegfindung, komplexe Sichtbarkeits-Berechnungen (So dass man zum Beispiel nur teilweise durch ein Gebüsch blicken kann) und so weiter. Klingt langweilig, die CUs können aber auch genutzt werden, um die Grafikleistung zu beschleunigen und die Bildqualität zu erhöhen. Sie passen besser zu gewissen Algorithmen, als es die Vertex- und Pixel-Pipeline eines Grafikchips. Während CUs im PC-Bereich seit einer Weile etabliert sind, wird ihre Verfügbarkeit mit den neuen Konsolen (weil jede von ihnen CUs besitzt) enorm erhöht. Außerdem wurde ihr gleichzeitiger Einsatz parallel zur Grafikdarstellung vereinfacht, so dass es einfacher ist, Compute- und Grafikberechnungen zu miteinander zu verflechten."
 
Ah jetzt verstehe ich was damit gemeint ist, danke Dai6oro ;)

Ich könnte mich jedenfalls dumm und dämlich ärgern. Ich habe mir nämlich vor geraumer Zeit eine GTX680 gekauft und hätte diese nun in Form der GTX770 für ein paar Euronen weniger mit sogar 4GB haben können.....

Aber wie sagt man so schön, beim Kauf von PC-Hardware gibt es keinen perfekten Moment. Man kauft was man braucht^^
 
Dai6oro schrieb:
Ein praktisches Beispiel für Computing in Games wäre z.B. Tress FX in Tomb Raider. Im Prinzip werden speziell Aufgaben der CPU an die GPU übertragen. In diesem Artikel wird auch darauf eingegangen für was Computing in Spielen gebraucht wird:

Doof nur, dass TressFX überhaupt nichts damit zu tun hat. :evillol:
 
Wenn man sonst schon nichts zu melden hat, positioniert man sein Ego anscheinend durch den Spott über dritte. :rolleyes:
 
Zurück
Oben