News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

HerrRossi schrieb:
Vllt. sollte AMD eine eigene Spiele-Engine entwickeln (oder eine kaufen), diese auf ihre eigene Hardware hin optimieren und den Entwicklern für lau anbieten, inkl. Schulungen?

Hust... "Mantle" anyone?

Hatte mir damals extra ne R280er geholt um das tolle Feature in BF4 zu testen... blieb beim Testen.
Wobei Mantle lebt ja ein Stück in Vulkan weiter.
 
Oneplusfan schrieb:
Damit meinte ich eigentlich die Raytracing Technologie an sich...
Warum sollte diese Technologie proprietär sein? Raytracing gibt es schon sehr lange, darauf hat Nvidia kein Patent.
Ergänzung ()

InsideDaft schrieb:
Wobei Mantle lebt ja ein Stück in Vulkan weiter.
Mantle war aber doch keine 3D-Engine!?
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Und ich beschwere mich nicht über Nvidia und deren Speichermenge auf den Grafikkarten, aber ich ärgere mich und es macht mich wütend, das sie nicht mehr Speicher zur Verfügung stellen, das ist doch Legitim!
Man kauft sich doch kein Luxusgut, welches einen wütend macht. Wo kommt dieser Druck her? Von aussen (Mitmenschen, Werbung)? Von innen (eventuell Sucht)? Etwas nicht gut finden ist eine Sache, aber deswegen direkt eine Wut zu spüren ist doch eine ziemliche Stufe höher.
Müssen ja tolle Produkte gewesen sein, wenn keiner der Kunden diese wollte, aber klar, das ist nur die Schuld der Käufer, die den wahren Wert der Grafikkarte wohl nicht erkannt haben!
Die 5800er Serie war ein ganz grosser Wurf. Fermi sah nach objektiven Kriterien eigentlich kein Land, mit der GTX 480 wurde mittels absurder Leistungsaufnahme die Einzel-GPU-Krone erzwungen. Sogar die Doppel-GPU 5970 Karte war effizienter (und schneller). GTX 470 und die 460 Varianten konnten die AMD Pendants (speziell 5850) leistungsmässig nicht schlagen, waren zudem noch deutlich ineffizienter. Preislich waren die Grafikkarten von AMD und Nvidia pro Stufe ziemlich ähnlich, das Preis/Leistungs-Verhältnis aber generell auf Seiten AMDs. Die Schere ging damals nicht aufgrund objektiv besserer Hardware zugunsten Nvidias auf, Marketing auf Endkundenseite, gewisse Geschäftsbeziehungen und fragliche Einflüsse in der Spieleentwicklung trugen viel mehr dazu bei.

Ja, warum die Kunden wohl Nvidia das Geld hinten und vorne reinstecken, wo sie doch so schlechte Produkte liefern und alle Spieleschmieden nur auf Nvidia optimieren.
Ein bisschen Wirtschaft im Studium hätte ganz gut getan, Spiraleffekte sind doch ganz interessant. Wobei du scheinst ja noch jung zu sein (kennst Cypress nicht), daher kommt das vielleicht noch?
Glaubst Du wirklich all diese AMD Verschwörungstheorien, ich dachte es gibt auch Spiele die auf AMD optimiert sind, ich dachte, das gerade AMD bei DX12 und Vulkan Vorteile hat?
Im Gegensatz zur Geschichte mit GameWorks und Co. gibt es bezüglich DX12 und Vulkan keine Benachteiligung oder Bevorteiligung eines Herstellers, zumindest nicht auf Ebene der Programmierschnittstelle, auch nicht indirekt. Wobei dies sich bei DX12 ändern könnte, Stichwort Ray Tracing. Es ist zu hoffen, dass Microsoft nicht so tief fällt, man wird es sehen.

Hat man ja mit dem GP Programm versucht, aber nicht alle wollten mitziehen und am Ende wurde das Programm auch auf Druck des Marktes und deren Käufer eingestellt, warum konnte das Nvidia nicht verhindern, wenn sie doch immer Gewinnen?
Wo wurde behauptet, Nvidia gewinne immer? Ausserdem sind sie auch so schon viel zu weit gekommen, einige Grafikkartenhersteller sprangen bereits auf den Zug auf. GPP war eine ernste Sache, es scheint als ob du die Zusammenhänge und möglichen Konsequenzen nicht ganz verstehst. Eine Verharmlosung ist wirklich nicht angebracht.

Aber Vulkan läuft doch besser auf AMD Grafikkarten, also sollte sich doch AMD und Intel in dem Bereich zusammentun, da hätte Nvidia sicher daran zu knappern!
Nochmals, Vulkan bevorteiligt AMD nicht aus bauartbestimmten Gründen. Eine quelloffene API für platformübergreifende Anwendungen von einem Industriekonsortium mit über 100 Unternehmensmitglieder ist keine schlechte Sache. Was glaubst du wieso Microsoft an DX12 und Apple an Metal festhalten? Nein, nicht weil Vulkan ein schlechtes Produkt ist, sondern weil die Plattformbindung und damit Kontrolle / Einfluss entfällt.

Dann wäre ja AMD genauso wie Nvidia jetzt nach Deinen Vorstellungen und das ist doch das was Du hier anprangerst, dass macht doch keinen Sinn?
Das wäre ebenfalls schlecht, stimmt. Du scheinst es aber auch bei Nvidia nicht als schlimm zu bewerten, also wäre es aus deiner Sicht doch ebenfalls kein Problem?
Kann das sein, das Deine Einstellung doch sehr AMD fixiert ist und aus Enttäuschung über AMD, dass diese es nicht schaffen sich stärker am Markt zu positionieren, Du Deine ganze Wut auf Nvidia projizierst?
Du hast doch mit Wut angefangen, da würde ich mal ansetzen. Grafikkarten die Wut auslösen, das kann nicht gesund sein.
 
  • Gefällt mir
Reaktionen: Iscaran, Hurricane271 und cryoman
slumpie schrieb:
Du hast doch mit Wut angefangen, da würde ich mal ansetzen. Grafikkarten die Wut auslösen, das kann nicht gesund sein.
Hättest Du richtig gelesen, habe ich nicht Wut und Ärger auf meine Grafikkarte, sondern ich bin schon etwas wütend und ägere mich, das Nvidia nicht mehr Speicher verbaut, obwohl man das ohne Probleme könnte! :daumen:

Zu den anderen Punkten will ich mich nicht mehr äußern, da es 1 zu 1 dacore ist mit dem was der User duststalker geschrieben hat einfach nur ein wenig umformuliert und etwas verdreht und dazu habe ich mich schon geäußert. Ansonsten wieder reine Verschwörungs Theorien und AMD Mitleid erwartend, also nichts wirklich Neues!
 
Morgen ist es endlich soweit :D mal schauen ob die neuen RTX etwas taugen ansonsten warte ich dann mal auf den Abverkauf der 1000er Karten. Wie schauts bei euch aus?
 
  • Gefällt mir
Reaktionen: cryoman
Frostbit schrieb:
Morgen ist es endlich soweit :D mal schauen ob die neuen RTX etwas taugen ansonsten warte ich dann mal auf den Abverkauf der 1000er Karten. Wie schauts bei euch aus?

Moin Frostbit,
joah, ich freue mich auf die RTX 2080 . . . und wenn die Leistung stimmt, dann hole ich sie mir auch diesen Herbst.
Wenn die Performance aber nicht überzeugt, dann freue ich mich auf ein 1080 Schnäppchen. ;)

Greetz
 
Sicherlich kein Kauf geplant, aber bin gespannt, was die CB-Redaktion nach einem harten Benchingwochenende so alles herausgefunden hat...
 
  • Gefällt mir
Reaktionen: Cpt.Willard
cryoman schrieb:
Wenn die Performance aber nicht überzeugt, dann freue ich mich auf ein 1080 Schnäppchen. ;)
Vllt geht sich für uns auch eine 1080 TI aus :daumen: (Träumen darf man doch?)
 
  • Gefällt mir
Reaktionen: cryoman
spp-compare.gif


Das is ein interessantes GIF von hier:
https://chunky.llbit.se/path_tracing.html

Da sieht man wie viel sampels per pixel man braucht um eine Szene vollständig zu raytracen.

Nvidia dürfte mit lediglich EINEM Sample per Pixel arbeiten und das Bild dann entrauschen, was schon direkt abartig erscheint wenn man bedenkt wie verrauscht das ist. Da denke ich auch an Anwendungen in der Fotografie, Denoise mit AI sollte da auch massiv was bringen können.

Wer Nvidias RTX Konversation etwas verfolgt hat weiß dass es in erster Linie darum geht mit möglichst wenig Aufwand gutes Ergebnis zu erhalten, deswegen arbeitet man wohl auch mit Bounding Boxen um unnötige Stahlen schnell zu verwerfen.

Edit:
Da is übrigens was von einem von AMD (und noch sehr aktuell)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, cryoman, Gilletti und eine weitere Person
Zotac2012 schrieb:
Aber AMD hat doch mit Ryzen gezeigt, wenn man ein gutes Produkt zu einem guten Preis auf den Markt bringt, wird das von den Kunden auch gekauft!

ryzen läuft gut - das einzige, was noch besser läuft, ist coffeelake. ist zwar ernüchternd, aber mit zen2 wird sich das hoffentlich noch in die richtige richtung bewegen.

schonmal was von "spoofing" gehört? das bedeutet, dass man dem betriebssystem/software vorgaukelt, dass man andere hardware im system hat, als man eigentlich im system hat.

so wird aus einem amd ryzen ein intel ryzen und sowas kommt dabei raus:

intelryzen.PNG
https://compubench.com/result.jsp?b...cl=true&pu-CPU=true&arch-x86=true&base=device

nicht schlecht, oder? doppelte performance einfach nur weils jetzt "genuine intel" statt "authentic amd" ist.

starcraft 2 wird gerne als beispiel hergenommen, wenns mal wieder drum geht zu beweisen, dass intel die besseren gaming cpus hat.

graph.png


http://realmofespionage.blogspot.com/2015/01/starcraft-ii-cpu-benchmarking-with-amd.html

sieht nach dem gewohnten bild aus, oder?

PLOTTTWIST:

die intel cpu ist nicht echt - das ist beides mal ein FX8350 - spoofing in einer VM.

tim-and-eric-mind-blown.gif


und das hat damit zu tun, welchen code die cpu vom compiler aufgrund ihrer herkunft vorgesetzt bekommt. scheinbar bekommt alles außer intel den mittelfinger.

Intel's compilers may or may not optimize to the same degree for non-Intel microprocessors for optimizations that are not unique to Intel microprocessors.
https://software.intel.com/en-us/ar...lease-notes-for-intel-parallel-studio-xe-2019

cpus hängen auch von der software ab - das haben wir hier gesehen - aber das ist lange nicht so extrem, wie es bei gpus der fall ist.

software ist das A und O bei gpu performance.

Zotac2012 schrieb:
Also, warum immer diese Verschwörungstheorien von Nvidia künstlich aufbauen[...]

verschwörungstheorien? "künstlich"? hast du mal die augen aufgemacht? es braucht wirklich nicht viel, außer einfach mal hinzusehen:

Unreal Engine 4 (runs great on geforce!!!)

ARK:

http://www.pcgameshardware.de/ARK-S...5571/Specials/Release-Benchmark-Test-1237821/

1070 > vega 64

Conan Exiles:

http://www.pcgameshardware.de/Conan-Exiles-Spiel-56548/Specials/Benchmark-Test-Review-1256440/

980 ti > vega 64 LC

Fortnite:

http://www.pcgameshardware.de/Fortn...attle-Royale-Benchmarks-Technik-Test-1248970/

980 ti > vega 64

Pubg:

http://www.pcgameshardware.de/Playe...PUBG-10-Final-Benchmarks-Performance-1247598/

1070 > vega 64 oc

Styx: Shards of Darkness:

https://www.overclock3d.net/reviews/software/styx_shards_of_darkness_pc_performance_review/7

1060 > fury x

Hellblade Senuas Sacrifice:

https://www.techspot.com/review/1476-amd-radeon-vega-64/page5.html

1070 > vega 64

Vampyr:

http://www.pcgameshardware.de/Vampyr-Spiel-55168/Specials/Test-Review-Benchmarks-1257653/

1070 > vega 64

ich kann das den ganzen tag lang machen, weil jedes unreal engine 4 spiel einfach nur grottig auf amd hardware läuft - das schlimme daran: es ist ein riesen haufen spiele - direkt gegimpt von der wiege an. und wenn man mit der unreal engine durch ist, gibts noch die cryengine.

tessellation - nvidia geht gerne her und tesselliert auf sub-pixel level. d.h. pro pixel gibts mehrere polygone. das ist schon vom prinzip her einfach nur hirnrissig - aber hey, nvidia hat ja eigenst dafür entwickelte tessellationseinheiten - also rein mit tessellation, vollgas.

nvidia tessellierte barrikade aus crysis 2:

1459759200319.png

charaktermodell mit so einem hohen polycount, wie man das heute für hauptcharaktere nutzen würde:

niu_wireframe2.jpg

vergleicht einfach mal das mesh und schaut euch an, wie eng die maschen sind - die menge an geometrie, die hier produziert wird, ist einfach nur absolut bescheuert.

jetzt ist es aber so, dass die tessellationseinheit von amd karten (GCN 2) nur bis zu einer bestimmten menge an polygonen effizient arbeitet - ab dem punkt, an dem es mehrere polygone pro pixel gibt (sub pixel tessellation) geht die performance in den keller.

amd tessellation.jpg

das ist dann der punkt, an dem nach besserer tessellationsleistung geschrien wird: "amd muss halt bessere tessellationsleistung in die karten bauen" - bleibt die frage: wozu? sub pixel tessellation ist ca so nützlich wie supersampling von 16k auf 4k auf einem 21" bildschirm. das einzige, was das macht, ist leistung kosten - und im fall von amd immens viel leistung.

die tessellationseinheiten auf einer 290x sind absolut ausreichend für eine sinnvolle anwendung. nur leider beißen sich halt nvidia tessellation und sinnvoll.

hier ein beispiel mit dx11 tessellation mit amd beteiligung:

http://www.pcgameshardware.de/Snipe...ecials/Technikanalyse-und-Benchmarks-1127251/

hier schlägt die 290x die titan black trotz tessellation.

dazu im kontrast das tolle hairworks in the witcher 3 mit faktor 64.

https://www.hardwareluxx.de/index.p...r-3-wild-hunt-im-benchmark-check.html?start=2

in the witcher 3 mit vollem hairworks bricht die 290x auf 40% ihrer leistung ein. und das liegt daran, dass 64x tessellation hairworks die tessellations-einheiten von hawaii komplett verstopft.

aber was will man machen - 64x tessellation sieht halt SOOOOOOOOO gut aus und macht technisch einfach nur sinn - oder nicht? ein schelm wer böses denkt.

Zotac2012 schrieb:
Und bei den Grafikkarten ist es nicht anders, wenn AMD ein gutes Grafikkartenprodukt auf den Markt bringt und zu einem guten Preis, dann werden die Kunden das auch kaufen.

du meinst so ein gutes produkt wie die r9 290, die für 399$ (350-400€ customs) quasi titan (950€ uvp) performance gebracht hat?

Zotac2012 schrieb:
Aber auch Nvidia wird ein Top Produkt zum guten Preis, was die Kunden wünschen und wollen, nicht verhindern können, egal wieviel Geld oder Einfluss sie haben!

ich hab schon so viel geschrieben, ich sags mit einem meme:

zotac meme.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, russianinvasion, Andre Prime und 5 andere
duskstalker schrieb:
ryzen läuft gut - das einzige, was noch besser läuft, ist coffeelake. ist zwar ernüchternd, aber mit zen2 wird sich das hoffentlich noch in die richtige richtung bewegen.

Dann mach es doch einfach, kauf Dir eine GPU von Nvidia und eine CPU von Intel und schon musst Du nicht mehr Tage und Nächte recherchieren und ominöse Fakten zusammentragen und bebildern und hättest dann auch mal wirklich Zeit zum Spielen und das ohne sich Aufzuregen! :daumen:
 
Krautmaster schrieb:
Anhang anzeigen 702328

Das is ein interessantes GIF von hier:
https://chunky.llbit.se/path_tracing.html

Da sieht man wie viel sampels per pixel man braucht um eine Szene vollständig zu raytracen.

Nvidia dürfte mit lediglich EINEM Sample per Pixel arbeiten und das Bild dann entrauschen, was schon direkt abartig erscheint wenn man bedenkt wie verrauscht das ist. Da denke ich auch an Anwendungen in der Fotografie, Denoise mit AI sollte da auch massiv was bringen können.

Wer Nvidias RTX Konversation etwas verfolgt hat weiß dass es in erster Linie darum geht mit möglichst wenig Aufwand gutes Ergebnis zu erhalten, deswegen arbeitet man wohl auch mit Bounding Boxen um unnötige Stahlen schnell zu verwerfen.

Edit:
Da is übrigens was von einem von AMD (und noch sehr aktuell)

Stellt euch mal ne Fotokamera damit vor...
ISO100000 : 0 rauschen dank tensor core und deep learning
 
ich hab mir jetzt mal das AMD video vom August angeschaut.

Im Prinzip macht man dasselbe wie Nvidia in Vulkan und vermutlich auch DX12.
1534697977566.png


Bisher hat man aber nict eine realtime Szene zu dem ganzen gezeigt. Auch die Präse da macht eher den Eindruck als versucht man eben noch rauszufinden wie viel Rays man für welches Feature in etwa braucht. Sieht mir sehr nach Kinderschuhen aus während Nvidia schon ein quasi fertiges RTX Framework ready for use samt doch einiger Demos vorgestellt hat.

Umso interessanter ob mal was von AMD mit Vulkan in dieser Hinsicht kommt.
Ergänzung ()

StefVR schrieb:
Stellt euch mal ne Fotokamera damit vor...
ISO100000 : 0 rauschen dank tensor core und deep learning

denke ganz vergleichen kann mans nicht. Für uns sieht ein "Raytacing Rauschen" erstmal aus wie hoher ISO Wert rauchen ja, aber ich denke das Raytracing Rauschen folgt einem Muster dass so deep Learning Muster / KI erlernen und entsprechend gut korrigieren kann.

Man kann diese AI trainieren. Man macht zb ein Bild mit 1 spp und entrauscht es über die Deep Learning AI und berechnet dieselbe Szene noch vollständig, schon hat man das Delta (Entrauschtes vs vollständig gerendertem Bild). Die KI wird trainiert so dass das Delta immer kleiner wird.

Darum gehts bei Deep Learning. Nvidia füttert das eigene KI Modell mit Millionen von Raytracing Entrauschen Bildern und richtig gerenderten Szenen und die KI versucht das Delta zu minimieren, lernt dazu. Dieses Deep Learning Modell wird auf den Tensor Kernen hinterlegt und diese rechnen das schnell. Vorne hüpft ein verrauschtes Bild rein, hinten kommt ein entrauschtes Bild raus.

Beim Fotografieren ist es vermutlich eine andere Art Rauschen. Vermutlich müsste man jeden Sensor einzeln anlernen, da ein charakteristisches Rauschen unter hoher ISO auftritt. Deswegen macht man ja auch oft nen Schwarzbild nach ner High ISO / Langzeit Aufnahme.
 
Zuletzt bearbeitet:
Zurück
Oben