Vor mehr als 3 Jahren, begann Nvidia mit der Entwicklung der 28nm Kepler Architektur

Status
Für weitere Antworten geschlossen.

HPC Master

Banned
Registriert
Apr. 2008
Beiträge
301
xenon54 schrieb:
Ist schon lustig wie AMD Jünger damit argumentieren dass GTX 680 nicht mit HD 7970 zu vergleichen sei da es zwei drei Monate früher rausgekommen ist. Als ob die Karten eine Entwicklungszeit von paar Monaten hätten und NVidia dementsprechend was aus dem Hut gezaubert hat.
Die Karten werden Jahre lang in Labors entwickelt und getestet da machen paar Monate echt keinen Unterschied, ich wette zurzeit werden karten wie GTX 780/880 und HD 8970/9970 wenn nicht noch spätere Generationen entwickelt. NVidia CEO oder wer das auch immer war hat auch nicht um sonst gesagt er ''hätte mehr von 7970 erwartet'' da er ja die Benchs von GTX 680 schon kannte.
Aber das scheint bei den AMD Jüngern nicht in den Kopf hinein zu passen und müssen hier solche Kindergarten Kommentare hinterlassen.

Absolut richtig => Das sind exakt 10 Wochen von KW2 "Thaiti Verkauf Release" 13.01.2012 zu jener KW12 "Kepler Verkauf Release" 22.03.2012, da waren die finalen Spezifikationen der kommenden Karten schon längst klar und durchgetestet, da sind noch diverse Treiber Optimierungsarbeiten und zahlreiche Software Testläufe zu machen,
die Karten in Produktion bereit zum Versand an die entsprechenden Board Partner wie ASUS, EVGA, PNY, MSI etc.

Ein interesanter Artikel über jene jahrelange Forschungsarbeit zeigt den grossen Aufwand, das Emulieren und Testen der neuen Nvidia "Kepler" GPU und der zufünftigen "Maxwell" GPU Architektur (2014) sowohl auch für das Projekt "Denver", der Nvidia betreibt, um Produkte ausgereift auf dem Markt plazieren zu können.

Inside NVIDIA’s Emulation Lab - "Tigris" & “Indus” World’s largest emulator - the real heart of Nvidia

Solche teuren GPU Emulatoren werden verwendet, um ein exaktes Abbild jener tatsächlichen Hardware zu liefern.
Software-Tools, diverse Vergleiche zum simulieren oder zu imitieren, was ein bestimmtes Stück Hardware tun würde.
​​Somit ist es durch den Emulator virtuell möglich alles zu testen, genau so als ob eine physikalisch reale Grafikkarte auf dem Motherboard angeschlossen wird. Dies öffnet somit den Chip-Designer neue Weg, um die zukünftigen GPU virtuell zu testen und diverse Antworten auf all ihre komplexen Fragen und Aufgaben zu finden.

Nvidia%20Tigris%20GPU%20Emulator.jpg


Nvidia%20Indus%20GPU%20Emulator.jpg


NVIDIA bietet Einblick in Advanced GPU Design Auswertung

http://www.youtube.com/watch?v=6yWuZdnIcrc
http://www.youtube.com/watch?v=ZRmWIINmLRA
Bei Nvidia sind diverse technologischen Verbesserungen gemacht worden wie z.B: Adaptive VSync Technology, 3+1 Display Support, kein Tearing bei Multi-Monitorbetrieb und keine teuren aktive DP-DVI-Adapter wie bei Eyefinity nötig, geringerer Stromverbrauch, inteligente GPU Boost Funktionen, FXAA und zukünftig TXAA Filter, Adaptive VSync & FrameLimiter hilft somit auch bis zu 30% Stromsparen... siehe Artikel bei HardOCP.com

NVIDIA Headquarters, ruthless power energy efficiency

http://www.youtube.com/watch?v=Bbk8U6R-io0

Nvidia%20Headquarter.jpg
 
Zuletzt bearbeitet:
Aber ATI macht das ganze nicht?
Oder nehmen die Klebeband, spucken 3 mal drauf, führen einen Voodoo Tanz auf und opfern eine Ziege, um die Technologiegötter zu besänftigen?:rolleyes:

Dass man sowas nicht aus dem Ärmel schütteln kann, sollte den meisten hier klar sein.
 
So vielen scheint es nicht klar zu sein, das beste Beispiel dafür sind die ewigen besser/schlechter Diskusionen in sämtlichen ATI/Nvidia oder Playstation/XBox Threads.

Dort wird auch immer mit den Releaseabständen argumiert, dass Hersteller A doch 3 Monate vor Hersteller B seine Waren auf den Markt gebracht hat, und somit um Welten besser sein müsste, um es überspitzt auszudrücken.
Wo wir wieder bei diesem Thema hier sind, und wie du sagtest DaDare, 3 Monate sind nichts!
Vielleicht lernt der ein oder andere etwas durch diesen Thread.

Diese Glaubenskriege nerven einfach nur noch, wodurch einem die Lust aufs Lesen vergeht.
 
Zuletzt bearbeitet:
Willst du das jetzt anderen Trollen oder Fanboys erzählen? Keine Ahnung was der Thread soll, hast dich wohl durch die ganz doll bösen Kommentare in deiner Ehre angegriffen gefühlt... Oder wozu der Einstiegsquote mit der Marketingmasche im Anhang? Meinst du AMD und NV fällt es beim Grillabend mit nem Kasten Bier ein und diese schustern dann alles in zwei Wochen zusammen oder wie?
 
3 Monate zeitlicher Unterschied spielen bei der Präsentation zweier direkt konkurrierender Produkte sehr wohl eine Rolle... Vor allem, wenn man bedenkt, dass der Produktzyklus zumindest in der Vergangenheit nur ca. 12 Monate beträgt.
Was willst du eigentlich mit dem Post sagen? Dass Produktentwicklung keine Sache von 1-2 Wochenenden ist? Andere Industriezweige können über eine Entwicklungszeit von 3 Jahren für eine neue Produktlinie nur müde lächeln.
 
Seh ich genauso, @Fisico!
Man nimmt die Einleitung und die Nvidia Bilder raus, fügt noch ein bisschen mehr Text hinzu und einen Verweis auf einen detaillierteren Beitrag. Aber so...
 
Nachdem das mit dem GK104 nicht so wirklich etwas geworden ist, muss es eben der GK110 richten :evillol:

Mir solls recht sein.

VG
 
Riesiger Quatsch. Fanboys haben generell einen an der Klatsche. Am Ende will doch jede Firma nur dein Geld sehen...
 
grünel schrieb:
Was soll dieser Thread jetzt?

Werbung für NVidia?

Streitsüchtig?

;)

Vielleicht gibts ja andere Leute wie Dich, denen diese Informationen zusagen und gerne etwas mehr über die GPU Entwicklung und deren Fortschritt erfahren wollen und auch interessiert sind hinter die Kulissen schauen wollen... kannst ja mal Infos vom AMD zusammentragen... Danke ;o)
 
Mhhh, weiß gar nicht warum sich hier auf einmal so viele aufregen.

Bin selbst ein so genannter AMD Fanboy, finde den Threat aber sehr interessant.

Ist doch mal spannend sowas zu lesen, und man muss sich ja nicht wegen jedem mist gleich aufregen oder.
 
HPC Master schrieb:
[...]kannst ja mal Infos vom AMD zusammentragen... Danke ;o)
Was sollen diese unterschwelligen Bemerkungen? :rolleyes:

Dein Eingangspost sieht weder sachlich aus, noch ist er erfahrungsgemäß (abgeleitet aus deinen restlichen Beiträgen) sachlich gemeint.

Bei solchen Beiträgen denke ich immer nur an den Artikel
http://www.golem.de/1201/89337.html
 
PiPaPa schrieb:
Was sollen diese unterschwelligen Bemerkungen? :rolleyes:

Dein Eingangspost sieht weder sachlich aus, noch ist er erfahrungsgemäß (abgeleitet aus deinen restlichen Beiträgen) sachlich gemeint.

Bei solchen Beiträgen denke ich immer nur an den Artikel
http://www.golem.de/1201/89337.html

Ersten bin ich kein echter Chinese, mache kein "Guerilla-Marketing" und zweitens arbeite ich als 3D Design Engineer im Prozess & Anlagenbau (mit PTC´s CAD/CAM Pro/Engineer), werde somit nicht von ASUS, Intel oder Nvidia bezahlt...
 
Daggy820 schrieb:
Mhhh, weiß gar nicht warum sich hier auf einmal so viele aufregen.
Dann sieh dich auf seriösen Seiten um oder benutz Google, aber solche Beiträge dienen nicht zur Information. Auseinander genommen ist der Thread nur ein
HPC Master schrieb:
Ein interesanter Artikel über jene jahrelange Forschungsarbeit zeigt den grossen Aufwand, das Emulieren und Testen der neuen Nvidia "Kepler" GPU und der zufünftigen "Maxwell" GPU Architektur (2014) sowohl auch für das Projekt "Denver", der Nvidia betreibt, um Produkte ausgereift auf dem Markt plazieren zu können.

Bei Nvidia sind diverse technologischen Verbesserungen gemacht worden wie z.B: Adaptive VSync Technology, 3+1 Display Support, kein Tearing bei Multi-Monitorbetrieb und keine teuren aktive DP-DVI-Adapter wie bei Eyefinity nötig, geringerer Stromverbrauch, GPU Boost, FXAA und zukünftig TXAA Filter, Adaptive VSync & FrameLimiter hilft somit auch bis zu 30% Stromsparen...
Den ersten Absatz könnte man auch streichen, den zweiten kann man in jedem Review nachlesen. Keine Ahnung wo da eine nennenswerte neue Information drin sein soll.

Kein Tearing bei Multi-Monitor-Betrieb ist übrigens lustig. Das funktioniert allerhöchstens bei identischen Monitoren und nicht mal dort zu 100 %. Der 3+1 Support ist fraglich, schließlich bietet AMD seit jetzt drei Generationen Eyefinity und Eyefinity 6. Erweiterbar sind diese durch MST-Hubs auf bis zu 24 Monitore. "Teure" aktive DP-Adapter ist auch lustig - 16 € sind schon wahnwitzig viele Euros, zudem das Geld bei drei Monitoren und einer High-End (evtl. Crossfire) auch so sehr ins Gewicht fällt. Der geringere Stromverbrauch gilt für die 680 momentan, vorhergehende Generationen haben immer mehr geschluckt. Geht es aber um die Effizienz, ist NV immer noch abgeschlagen. Framelimiter gibts von MSI und RivaTuner bspw. kostenlos und GPU unabhängig...

Naja who cares...
 
Wenn ich mir deine anderen "Beiträge" so anschaue ist der oben erwähnte Beitrag http://www.golem.de/1201/89337.html, wohl doch zutreffend und deinem angegebenen Bildungsgrad alles andere als würdig.

Passend auch ein Kommentar in einem anderen Thread

Du würdest die Karte auch bis aufs Blut verteidigen oder? Einen besseren Propagandachef kann sich nvidia nicht wünschen
 
Zuletzt bearbeitet:
Schreibt hier was von "AMD Fanboys" und ist selbst der reinste Nvidia Fanboy der nur schlechtes über AMD zu berichten weiß...
Schade das es hier keine ignore funktion gibt.
 
Zuletzt bearbeitet:
Hm, was soll den konkret deine Aussage sein? Ich verstehe es nicht.

Die GTX 680 ist ohne Frage eine gute Karte. Vieleicht die beste, die Nvidia seit Jahren rausgebracht hat.
AMD hingegen haben in den letzten Jahren, also seit der 5xxxer Serie nur gute Karten rausgehauen. Von der Leistung zwar immer leicht hinter Nvidia, aber was Chipgröße, Energieeffizienz und Wärmeentwicklung anbelangt immer vor Nvidia.

Und ich finde 2-3 Monate Vorsprung sind schon eine ganze Menge und sie spielen schon eine Rolle, denn gerade in den letzten Monaten wird das nötige Feintuning vorgenommen und je mehr Zeit ich dazu habe, desdo optimaler wird das Produkt.

AMD hatte aber in der Entwicklung in den letzten Jahren immer deutlich die Nase vorn. Nvidia scheint aber aufzuhohlen.

Nvidia muss nun aber nachlegen. Eine gute Karte sagt erstmal garnichts aus.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben