Kommentar Kommentar: Shitstorm ist gut, Lehren daraus zu ziehen ist besser

Do Berek schrieb:
Kommt immer drauf an wen und wo du fragst
Wobei die Frage Deiner Umfrage lautet: Welche AMD RX 6000er Karte man sich kaufen würde.
Das hat überhaupt nichts mit der Fragestellung, um die es hier geht gemein...
 
  • Gefällt mir
Reaktionen: ZeroStrat
@.Sentinel.
Ich wiederspreche mir nicht. Wenn das so weiter geht haben wir in zwei Jahren einen Anteil von 10-15% bei Spielen die RT/DLSS unterstützen.

Also bei der Überlegenheit würde ich mich nicht soweit aus dem Fenster lehen. 1. Zeigt Dirt da ein ganz anderes Bild. Ach ja die Tensor Cores die erstmal garnicht genutzt/benötigt wurden. Und dann sind alle Titel die RT unterstützen und Verfügbar sind mit Unterstützung von Nvidia entstanden. Und wir wissen was das in der Regel heißt. Wenn Nvidia seine Finger mit im Spiel hat oder wie war das damals mit der Tesselation?
Vendorlock, hmmm wie ist das nochmal mit Cyberpunk???? Da kann keiner mit einer RDNA2 Karte RT nutzen.
Hier agieren beide Firmen armselig. Aber irgendwann muss sich auch AMD wehren.

Was für zweifelhafte Mittel sind das mit denen AMD hier bremst? AMD hat gerade mal eine Generation gebraucht um auch RT in ihren Karten bereit zu stellen.
Und was hätte mir als Vega56 nutzer gebracht diese 4-5 Titel mit RT zu spielen und dann noch wahrscheinlich zu wenig FPS wie bei der 1080ti oder der Titan???
Wenn jemand Fortschritt bremst dann ist das doch immer wieder Nvidia. Physyx, Mantel, G-Sync immer wird versucht mit Proprietären Standards den Markt an sich zu reißen. Nur klappt das zum Glück nicht.

.Sentinel. schrieb:
RT für AMD erscheint deswegen Monate später, weil deren RTRT Generation erst Wochen vor Release fertiggestellt wurde, also kein Testing seitens CDPR hätte stattfinden können und die RTRT- Leistung bei AMD erstens generell nicht berauschend ausfällt und zweitens treiberseitig noch mit instabilitäten/Fehlern zu kämpfen hat.
Ach so und wieso kann man dann alle anderen RT Games auch auf RDNA2 zocken???
Hör doch auf hier so einen BS zu erzählen.
DXR ist ein Standard von MS die Implementierung hinter dieser API sieht bei AMD und Nvidia unterschiedlich aus.

Die UVP liegt bei 649 und nicht bei 1000 Euro Scalper Preisen.
AMD hat die UVP schön nach oben angepasst. Dank der horrenden Preiserhöhung von Nvidia bei Turing.
Dann hat Nvidia gesehen das AMD mit Nvidia mithalten kann und oh Wunder sind die Preise deutlich gefallen. die 3080 für 699 die Ti kommt dann für 999 denke ich. Ohne AMD würde die 3080 mit lächerlichen 10GB doch locker 999 Euro kosten und die Ti 1400 und die 3090 bei über 2000 Euro liegen.
Das sollte man nicht vergessen.

Ja ich habe einen Marken Bias das gebe ich auch zu. Ich hatte aber auch diverse Nvidia Karten gehabt. Zuletzt eine 1070. Mit der war ich bis auf einen Bug mit meinem Monitor auch zufrieden.
Aber ich sage es hier ganz klar ich werde mit meinem Geld bestimmt keine Firma unterstützen die mich als Kunden nur benachteiligen will.
Und bisher war dies bei AMD nicht der Fall. Oder war die GTX 970 3,5 Edition von AMD? Wie sieht das mit dem GPP Programm von Nvidia aus?
Und wenn wir schon von Bias sprechen und dann auf deinen Nick hier im Forum eingehen.
Scheinst Du hier wohl für Nvidia aufzupassen oder wie soll ich das verstehen?
 
  • Gefällt mir
Reaktionen: dohderbert
Genau deshalb habe ich auch den Poll von GN genommen, da dieser in der Regel weder zu AMD noch zu nvdia tendiert. Alleine die Überschrift deines Polls ist ja schon eine andere Nummer. Which AMD RX 6000 would you buy. Und die einzige nvidia Antwort ist "using nvidia", sprich die nvidia, die man hat behalten.
Ergänzung ()

ThePlayer schrieb:
@.Sentinel.
1. Zeigt Dirt da ein ganz anderes Bild. Ach ja die Tensor Cores die erstmal garnicht genutzt/benötigt wurden.
Kannst du bitte die letzten Seiten lesen? Wir hatten genau DIESES Thema sehr ausführlich euriert (gestern Abend IIRC). Und die Tensor Cores haben nichts mit RT zu tun, sondern für DLSS. Und diese wurden nur bei DLSS1.9, sprich einem einzigen Spiel, nicht benutzt.

ThePlayer schrieb:
@.Sentinel.
Und wenn wir schon von Bias sprechen und dann auf deinen Nick hier im Forum eingehen.
(The) Sentinel war ein grandioses C64 Game ;)
 
  • Gefällt mir
Reaktionen: .Sentinel.
bensen schrieb:
Den zweiten Absatz verstehe ich nicht. Warum ist es kein Wunder, dass die 80% Marktanteil haben? AMD hat genau so seine Klicks durch Reviewer. Es könnte ja auch einfach sein, dass AMD die letzten Jahre immer nur Bruchteile des ganzen Spektrum abgedeckt hat und das auch nicht immer durchweg überzeugend.
Die 80% Marktanteil sind halt in sofern kein wunder, als das alles gepasst hat die letzten Jahre.
Die Produkte sind gut, die Features sind knorke, besonders für Reviewer und Influencer (lets player, etc).
Und wenn die solche karten nutzen dann geben die das auch an ihre Fans weiter, auch ohne dafür bezahlt zu werden.
Ein gutes Beispiel ist Pietsmiet. So gut wie keine Ahnung von Hardware (ausser Dennis vielleicht noch) nutzen aber immer Nvidia, (ist kein wunder die features für lets player sind wie gesagt super) und geben das auch so weiter. AMD findet da keine Erwähnung zumindest bei den gpus.
Der Ryzen wird zwar nicht beworben bzw. erwähnt findet sich aber in fast allen Pc die sie anbieten (ja die bieten zusammengestellte pcs an auch mit Amd gpus).
Aber allein dadurch, dass sie nvidia erwähnen kommt das ja an bei dem zumeist jüngeren Zuschauern und das bleibt halt in den Köpfen.

Und dann kaufen die auch die nvidia produkte.

AMD war die letzten jahre bei den Gpus nicht so erfolgreich bzw. hat sich auf den Einstiegsbereich fokussiert (was ich voll i.O finde, sind solide karten).
Und zumindest ich kenne keinen Influencer, der Amd grakas nutzt. Bei den Cpus ist das was anderes die Ryzen sind der hammer.

Was ich meine ist, dass Nvidia einfach ihre Marke etabliert haben und das massiv dazubeiträgt, dass sie sich so gut verkaufen. Ähnlich läufts ja auch bei Apple.
 
Nvidia ist am Shitstorm selber schuld. Man kann einfach warten, bis die Technik weiter genutzt + verbreitet ist, dann zieht die Presse automatisch nach.
Egal ob Nvidia das tun wollte, um sich besser darzustellen oder die Presse zu "Fortschritt zu zwingen", so ist diese Art der Kommunikation für das Unternehmen einfach schlecht und die Intention, dass sie sich nur positiv sehen wollen in den Reviews verständlich.

Wie viel Vram genutzt wird hängt von der Lead Platform ab: Den Konsolen (+ Mehrheit der PC User).
Die 16GB Vram von Amd sind auch Marketing. Bis die effektiv genutzt werden, sind alle anderen Effekte auf der GPU schon weit drunter. Dafür hat man aber noch gut aussehende Texturen. Fraglich ob man diese auf niedrigen Auflösungen dann erkennt.

Zu DLSS und RT wurde eigentlich schon alles gesagt. Sobald es da auf den Konsolen los geht, rollt der Stein unausweichlich
 
  • Gefällt mir
Reaktionen: OldboyX und .Sentinel.
edenjung schrieb:
AMD war die letzten jahre bei den Gpus nicht so erfolgreich bzw. hat sich auf den Einstiegsbereich fokussiert (was ich voll i.O finde, sind solide karten).
Und zumindest ich kenne keinen Influencer, der Amd grakas nutzt. Bei den Cpus ist das was anderes die Ryzen sind der hammer.
Du hast dir die Antworten selbst gegeben. Es gab keinen 2080ti Konkurrent, Nvidia war Jahre voraus. Und Influencer wollen eher die "High-End" als das Brot&Butter Zeugs. Gerade wenn sie auch neue Games zeigen/streamen. Dazu die Youtube relevanten Features von NVidia. Ryzen hat es geschafft, weil sie Paroli bieten konnte. Nicht weil sie im Einsteigersegment eine sehr gute Alternative waren. Mit den RX6000 könnte sich das jetzt ändern.
Was ich damit sagen will: Nvidia hat sich das mit Leistung erarbeitet. Und das muss man einfach anerkennen, auch wenn man die rote Brille auf hat. Ähnlich sieht es mit Ryzen aus für die träger einer blauen Brille.
 
  • Gefällt mir
Reaktionen: .Sentinel. und edenjung
@HighDefinist
es gibt aktuell weniger Spiele, die mehr als 10GB benötigen, als Spiele mit Raytracing. Neutral gesehen ist eine Karte mit besserer Raytracing-Leistung daher besser als eine mit mehr als 10GB Speicher.

Das ist genau das, was ich mit meinem Kommentar zeigen wollte: Objektive Berichterstattung muss es unterlassen subjektive Kriterien über zugewichten.
 
  • Gefällt mir
Reaktionen: Verminaard, WeltalsWille und foo_1337
foo_1337 schrieb:
Du hast dir die Antworten selbst gegeben. Es gab keinen 2080ti Konkurrent, Nvidia war Jahre voraus. Und Influencer wollen eher die "High-End" als das Brot&Butter Zeugs. Gerade wenn sie auch neue Games zeigen/streamen. Dazu die Youtube relevanten Features von NVidia. Ryzen hat es geschafft, weil sie Paroli bieten konnte. Nicht weil sie im Einsteigersegment eine sehr gute Alternative waren. Mit den RX6000 könnte sich das jetzt ändern.
Was ich damit sagen will: Nvidia hat sich das mit Leistung erarbeitet. Und das muss man einfach anerkennen, auch wenn man die rote Brille auf hat. Ähnlich sieht es mit Ryzen aus für die träger einer blauen Brille.
Exakt.

rein Objektiv kann man sagen, dass Nvidia ein gutes Produkt bietet und die Features dazu prädestiniert dafür sind, besonders influencer anzusprechen. Und zack hat man kostenloses Marketing, da die frage nach dem system eine der häufigsten in dem Bereich ist.
Prima synergie würde ich mal sagen.
hut ab dafür.

Dazu kommt aber auch, dass sie ja aktiv Raytracing verbreiten, indem sie Entwickler bezahlen für das nutzen und dafür sogar eigene Entwickler abstellen.
Ist wie damals bei Physix.



Was ihre Unternehmenspolitik angeht, da muss ich aber sagen, dass sie mich wirklich nicht anspricht.
Sehr toxisch und mit sehr negativen geschmäckle.
heißt aber nicht, dass ich was gegen die Produkte habe, da differenziere ich.
 
  • Gefällt mir
Reaktionen: .Sentinel. und foo_1337
foo_1337 schrieb:
Aber hier nun zu Unterstellen, dass man AMD benachteilig, wenn man eben nicht inline Raytracing verwendet, halte ich für falsch. Denn komplexe Szenarien, wie z.B. in CP2077 sind da eben nur schwer bis gar nicht möglich.

Unterstellt wurde dahingehend - zumindest von mir - gar nichts, aber naheliegend wäre es schon und ja, ich glaube an keine faire/transparente Vergleichsmöglichkeit für diesen und andere Titel bzgl. RT-Raytracing aktuell, auch wenn wir sehen, wer das Spiel als Vorzeigetitel marketingträchtig gesponsert hat.

An einem fairen direkten Vergleich zweier so unterschiedlicher GPU-Architekturen mit diversen Implementierungsoptionen, mit unterschiedlichen Optimierungs-/Freischaltungszeiträumen für das Spiel, von einem GPU-Entwickler mit großem Hype gesponsert/vermarktet ... das spricht ziemlich gegen eine faire direkte Vergleichsgrundlage ;).

Es weiss aber doch auch keiner, ob CD Project Red da genau den gleichen RT-Raytracing Ansatz bei nVidia und AMD/RTG GPUs (evt. mehr Inline-RT-Raytracing lastig mit Einzelinstanzen?) fahren wird.

Schon die zeitliche Differenz, dass AMD/RTG RDNA2 bisher noch nicht unterstützt werden in Cyberpunk 2077 bzgl. RT-Raytracing könnte ein Indiz für völlig verschiedene Herangehensweisen/Optimierungen sein und somit keine direkte Vergleichbarkeit von nVidia und AMD/RTG Grafikkarten der möglichen RT-Raytracing-Leistung nach (eines kann besser als das andere optimiert sein).

Dazu kommt noch das Vorhandensein und Optimierung auf DLSS2.0 (selbst wenn AMD/RTG urplötzlich das Super Resolution Pendant zeitnah aus dem Ärmel schütteln würde), was einem fairen Vergleich entgegen steht.

Man kann als Rezensent natürlich trotzdem so tun als ob es fair/transparent ist, aber ob man das dann ernst nehmen kann/will, das bleibt jedem selbst überlassen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer und dohderbert
foo_1337 schrieb:
Alleine die Überschrift deines Polls ist ja schon eine andere Nummer. Which AMD RX 6000 would you buy. Und die einzige nvidia Antwort ist "using nvidia", sprich die nvidia, die man hat behalten.
Naja "using Nvidia" kann ja auch bedeuten, man würde sich generell keine AMD Karte kaufen weil man Nvidia nutzt, also auch eine Nvidia als nächstes kaufen würde.
Da dürften diejenigen die das vorhaben dann auch "using Nvidia" gewählt haben.
 
Na dann stehen AMD ja glorreiche Zeiten bevor ;) Ich denke wir beide wissen, dass AMD wohl kaum mehr Karten in diesem Preissegment (500-1500€) verkauft als nvidia. Auch wenn es keinerlei Liefferengpässe gäbe.
 
Taxxor schrieb:
Naja "using Nvidia" kann ja auch bedeuten, man würde sich generell keine AMD Karte kaufen weil man Nvidia nutzt, also auch eine Nvidia als nächstes kaufen würde.
Da dürften diejenigen die das vorhaben dann auch "using Nvidia" gewählt haben.
Genau, Fragebögen haben immer Lücken (vor allem rudimentäre auf Twitter)
Genau wegen solcher Semantik muss man sich daran richten was die Mehrheit Leute kauft + was die Entwickler als Zukunftsträchtig interpretieren.
 
Ich kann die Kritik von nVidia durchaus nachvollziehen.

Als die ersten 3D-(Hardwarebeschleuniger-)Grafikkarten aufgekommen sind, hätte auch niemand den Haupt-Fokus auf 2D-Grafik gesetzt. Raytracing ist seit der 2000er-Serie ein Bestandteil, der bei der 3000er-Serie, die ja ausgebaut wurde und AMD ja auch mit ins Boot gesprungen ist, nicht unter den Tisch fallen darf. Natürlich unterstützen das aktuell noch wenige Spiele und die Test-Aufwände sind deutlich höher. Aber um saubere Reviews bzw Tests zu liefern darf man das halt nicht ausklammern bzw zu kurz kommen lassen.
 
  • Gefällt mir
Reaktionen: Verminaard und .Sentinel.
Jan schrieb:
Der bekannte YouTube-Tech-Kanal Hardware Unboxed hat auf Twitter öffentlich gemacht, dass Nvidia die Bemusterung mit Founders Editions einstellt, weil in den Tests zu wenig Fokus auf Raytracing gelegt wird.
Das Thema hatte ich bei meinem damaligen Arbeitgeber schon vor etlichen Jahren immer wieder mal mit diversen (namhaften) Herstellern sowohl von Hard- als auch von Software (Games).
Wir haben dann die Produkte selbst gekauft und auf Herz und Nieren getestet. Das ging damals aufgrund finanzieller Unabhängigkeit, aber man war natürlich nicht so aktuell wie die Mitbewerber.
Natürlich gab es ebenfalls einen entsprecheden Artikel, der den Herstellern ggf. nicht gepasst hat und auf den Versuch der Einflussnahme hinwies.
Danach gab es Gespräche und das Ende vom Lied war, dass man (immerhin) erkannte, dass alle Beteilgten im selben Boot sitzen.
In der Regel diskutierte man bei Folgeprodukten dann über den Umfang eines Artikels, aber nicht darüber, wie getestet wurde. Häufig deckte man ja während der Tests Bugs/Probleme auf und das war für viele Hersteller ein Benefit, da sie gezielter bugfixing betreiben konnten.
Natürlich hat sich heutzutage durch Online, Youtube, Influenza ;) und Co, einiges verändert, aber die Grundmechanismen sind immer noch die selben.
 
  • Gefällt mir
Reaktionen: Verminaard
ThePlayer schrieb:
@.Sentinel.
Ich wiederspreche mir nicht. Wenn das so weiter geht haben wir in zwei Jahren einen Anteil von 10-15% bei Spielen die RT/DLSS unterstützen.
Es geht darum WELCHE Titel RTRT in Spielen nutzen. AAA sind hier die Zugpferde, die den Karten im Normalfall auch etwas abverlangen.
ThePlayer schrieb:
Also bei der Überlegenheit würde ich mich nicht soweit aus dem Fenster lehen. 1. Zeigt Dirt da ein ganz anderes Bild.
Ich lehne mich aufgrund von Profiling und Messungen und eigenen Tests diesbezüglich aus dem Fenster.
Immerhin muss der Titel an deren Entwicklung ich beteiligt bin auch auf Big Navi eine Top- Figur machen.

Es hat einen Grund, warum Dirt ein ganz anderes Bild zeichnet. Die Hintergründe dazu werde ich aber niemandem gegenüber näher beleuchten, da ich mir damit keine Freunde machen werde.

ThePlayer schrieb:
Ach ja die Tensor Cores die erstmal garnicht genutzt/benötigt wurden. Und dann sind alle Titel die RT unterstützen und Verfügbar sind mit Unterstützung von Nvidia entstanden.
Ja- Irgendwo muss man mal anfangen. Da darf sich AMD bei nvidia bedanken, da sie mit hohem finanziellen Aufwand Versuchskaninchen gespielt haben.
Die Tensor- Cores haben mit RTRT erstmal nichts zu tun.
ThePlayer schrieb:
Und wir wissen was das in der Regel heißt. Wenn Nvidia seine Finger mit im Spiel hat oder wie war das damals mit der Tesselation?
Ja- Das hat CDPR ordentlich verbockt. Was hat nvidia damit zu tun? Sind die jetzt schuldig, weil deren Karten schneller tesseliert haben, oder hat AMD nur geschlafen, weil sie erst verspätet eine entsprechende Regelungsfunktion in ihre Treiber integriert haben? Oder CDPR keinen Tesselierungs- Regler eingebaut hat? ->Haben sie im Anschluss ja noch nachgereicht.
ThePlayer schrieb:
Vendorlock, hmmm wie ist das nochmal mit Cyberpunk???? Da kann keiner mit einer RDNA2 Karte RT nutzen.
Hier agieren beide Firmen armselig. Aber irgendwann muss sich auch AMD wehren.
Es gibt mehrere logische Gründe, warum Cyberpunk derzeit keine offizielle Untersützung bietet:
1. Treiberkompatibilitätsprobleme von Big Navi unter DXR
2. Leistungsbedarf - Für Big Navi muss gesondert optimiert werden
3. Keine Evaluierungszeit mehr, da Big Navi zu kurz vor dem Erscheinungsdatum auf den Markt geworfen wurde

Nachdem nvidia bei keinem anderen Spiel irgendwelche Locks eingebaut hat, ist Deine bösartige Unterstellung sehr weit hergeholt.

ThePlayer schrieb:
Was für zweifelhafte Mittel sind das mit denen AMD hier bremst? AMD hat gerade mal eine Generation gebraucht um auch RT in ihren Karten bereit zu stellen.
Es ist in Entwicklerkreisen ein offenes Geheimnis, dass AMD bereits Navi für RTRT freischalten wollte.
Man hat PR- Technisch auch getönt, dass die Karten dazu in der Lage wären.
In den Treibern finden sich seit Jahren Codebereiche dafür.

Man ist sich relativ einig, dass man mangels Leistung das Feature dann doch nicht für die User freigeschalten hat. Das hätte nur unnötig die Scheinwerfer auf die nvidia Karten gelenkt, wenn der eine oder andere dann doch Gefallen daran gefunden hätte. -> Achtung. Das ist das, was "man" spricht und selbstverständlich nur eine Schlussfolgerung der vorliegenden Indizien.
ThePlayer schrieb:
Und was hätte mir als Vega56 nutzer gebracht diese 4-5 Titel mit RT zu spielen und dann noch wahrscheinlich zu wenig FPS wie bei der 1080ti oder der Titan???
Siehe oben. Zumindest hätte es gereicht, sich ein Bild von der Geschichte zu machen und weniger voreingenommen gegenüber der Entwicklung der Technik zu sein, das sie Dir dann nicht vorenthalten worden wäre.
ThePlayer schrieb:
Wenn jemand Fortschritt bremst dann ist das doch immer wieder Nvidia. Physyx, Mantel, G-Sync immer wird versucht mit Proprietären Standards den Markt an sich zu reißen. Nur klappt das zum Glück nicht.
Wenn für irgendetwas noch keine Technik oder kein Standard existiert, dann musst Du zwangsweise Proprietär entwickeln. Und zudem entwickelt man Techniken und Verfahren, damit man das Ökosystem für die eigenen Karten attraktiver macht.
PhysX ist auch auf AMD lauffähig. G-Sync hat Alleinstellungsmerkmale bezüglich der Qualitätssicherung und Mindestanforerungen an die Hardware und zudem noch einen ausgeweiteten Arbeitsbereich.
Deine Argumentation fährt diesbezüglich gegen die Wand.

ThePlayer schrieb:
Ach so und wieso kann man dann alle anderen RT Games auch auf RDNA2 zocken???
Hör doch auf hier so einen BS zu erzählen.
DXR ist ein Standard von MS die Implementierung hinter dieser API sieht bei AMD und Nvidia unterschiedlich aus.
Die Argumente habe ich bereits weiter oben angebracht.
Wer sagt Dir denn, dass nicht AMD dort eine Bremse reingehauen hat, damit Big- Navi nicht mit pauken und trompeten in dem Titel untergeht?
ThePlayer schrieb:
AMD hat die UVP schön nach oben angepasst. Dank der horrenden Preiserhöhung von Nvidia bei Turing.
Nein- Die Prozessorsparte zeigt, dass AMD seine Preise nach belieben unabhängig der Konkurrenz ansetzt.
ThePlayer schrieb:
Ja ich habe einen Marken Bias das gebe ich auch zu.
Das wär mir aber kaum aufgefallen ;) Finde ich aber gut, dass Du dazu stehst und das auch so kundtust. Setzt es doch das eine oder andere in einen entsprechenden Kontext.
ThePlayer schrieb:
Aber ich sage es hier ganz klar ich werde mit meinem Geld bestimmt keine Firma unterstützen die mich als Kunden nur benachteiligen will.
Dazu hat jeder das Recht. Die Bewertungsgrundlagen einer Kaufentscheidung sind vielfältig und individuell.

ThePlayer schrieb:
Wie sieht das mit dem GPP Programm von Nvidia aus?
Das GPP Programm war eine Sauerei sondersgleichen. Dafür haben sie zu Recht von allen Seiten ordentlich Dresche kassiert.
Wenn es auch im Endeffekt keine großen Auswirkungen hatte, ist auch die 970er Aktion als unverschämtheit abzustempeln. Das ändert aber nichts daran, dass es Preis-/Leistungstechnisch ein herausragendes Produkt war.

AMD hat uns früher zu Opteron Zeiten aber auch den einen oder anderen Bonus in Aussicht gestellt, wenn wir die Konkurrenz nachlässiger behandeln würden.
Und ja- Ich hab mich damals darauf eingelassen, weil sie damals die überlegeneren Produkte hatten.
Das muss ich zu meiner Schande gestehen.

Ne weisse Weste, wie sie ihnen viele gerne andichten, haben die auch nicht.
ThePlayer schrieb:
Und wenn wir schon von Bias sprechen und dann auf deinen Nick hier im Forum eingehen.
Scheinst Du hier wohl für Nvidia aufzupassen oder wie soll ich das verstehen?
Ich stehe auf vielen Seiten. Auch ich hab früher auf dem C64 raubkopiert, bin aber jetzt selbst an Entwicklungen beteiligt.

Auch ich habe mich früher, als ich mir meine Hardware mühsam durch Ferienjobs verdienen musste, durch Treiberschummeleien und dadurch verfälschten Benchmarkergebnissen geprellt gefühlt.

Ich habe Bugs und unfertige Software als Konsument ertragen müssen und selbst schon unfertige Software mit Bugs gestrickt.
Ich habe schon gecruncht, musste aber selbst auch schon crunch anordnen.

Ich betreue als Kunden IT- Technisch einen der größten Chipbroker, der auch in der Hardwarefertigung tätig ist und habe zudem durch meine früheren Importtätigkeiten im Zuge des Betriebs eines Systemhauses noch gute Kontakte zu den Fertigern. -Damals konnte man tatsächlich noch ab Werk bestellen.

Ich bin seit kleinauf in der IT und habe seit Anfang der 80er Jahre jegliche Entwicklung verschlungen und später auch aktiv integriert/entwickelt/ausgeführt.

Und das ist das, was immer zwei Herzen bei mir schlagen lässt. Ich kenne die Situation aus den verschiedenen Blickwinkeln und deshalb weiss ich, dass die Dinge oftmals nicht so einfach sind, wie sie für denjenigen der auf Steam oder Amazon bequem von der Couch aus auf "bestellen" drückt, scheinen.

Man ist im Laufe seines Lebens oftmals vielen Zwängen ausgesetzt, die einen auch zum Handeln entgegen der eigenen Überzeugung bringen können und auch vielen Situationen, die menschlich bedingt einfach schief laufen können.

Die Welt besteht aus mehr als dem "Ego".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verminaard, Maggolos und foo_1337
Jan schrieb:
Dass Nvidia die Entscheidung revidiert hat, ist bereits vermerkt. Der Kommentar geht das Thema aber allgemein an und hat in meinen Augen weiterhin Gültigkeit - in diesem Fall und industrieweit.

tl;dr: wer gestern die Fackel in der Hand hatte und heute meint, er hat „gewonnen“, ist auch Teil des „Problems“.
Habe ich zuerst nicht gesehen. Jetzt beim zweiten Mal schon. Stand das da schon bei Veröffentlichung des Artikels drin? Ist ja eigentlich auch egal.

Ich habe jedenfalls damit nicht sagen wollen, dass der Kommentar ungültig ist. Es ist mir durchaus bewusst, dass das was gesagt wurde nicht durch einen derartigen Rückzieher wieder vergessen gemacht werden kann.
 
ArrakisSand schrieb:
Momentan wird DLSS lediglich von einer Handvoll bzw. von ca. 5% aller Spiele unterstützt, daher hat Hardware Unboxed einfach sowas von Recht.

Das ist zweifelsohne korrekt.
Ich gehe daher auch davon aus, dass HardwareUnboxed die Tests ohne SAM und BAR durchführt, denn wieviel % der Spieler hat schon einen Zen3 (erst mal kaufen können vor Lachen) und ein Board, welches das unterstützt UND eine RX aus der 6000er Serie (ebenfalls erst mal kaufen können bei vorliegender Verfügbarkeit).
 
  • Gefällt mir
Reaktionen: .Sentinel.
Habt ihr nen Spendenlink? Wegen Euch habe ich die 3090 von MSI gekauft und bin im großen und Ganzen Happy. Würde dafür mal eine kleine Aufmerksamkeit rüber schicken wollen
 
Chismon schrieb:
Es weiss aber doch auch keiner, ob CD Project Red da genau den gleichen RT-Raytracing Ansatz bei nVidia und AMD/RTG GPUs (evt. mehr Inline-RT-Raytracing lastig mit Einzelinstanzen?) fahren wird.
Ich geb Dir Brief und Siegel, dass die schon dransitzen, ihre Shader zu konsolidieren und die dann für AMD umzustricken. Das braucht bei einem Spiel dieses Umfangs Zeit und vielleicht müssen Abstriche durch Tricks anderweitig kaschiert werden.
Die werden ein vorzeigbares Ergebnis für die Konsolen und Big Navi liefern. Da bin ich mir sicher.
Es wird dabei zwangsweise eine Zwischenstufe zu DLSS geben - Da wird AMD gerade mit ihnen zusammen "schwitzen" und wenn es auf ein einfaches Checkerboarding wie bei Watchdogs Legion rausläuft.

Ich habe nur die Befürchtung, dass deren Ressourcen sehr stark durch den schlechten Konsolen- Launch und den technisch schlechten Zustand der PC- Version in Anspruch genommen, so dass sich das unangenehm verzögern könnte.
Das wäre sehr schade.

Ich Drücke ihnen da wirklich die Daumen und fiebere auch mit, dass sie das alles zeitnah in den Griff bekommen.

Ich habe mir das gesamte Konstrukt Cyberpunk jetzt auch mal auf Fileebene angesehen und auch mal der Engine ein wenig auf den Zahn gefühlt.
Mich beschleicht tatsächlich das Gefühl, dass da in bereits fortgeschrittenem Stadium irgendwas schrecklich schief gelaufen sein muss.
Dann hat man alles über den Haufen geworfen und dann unter hohem Druck alles neu zusammengefriemelt. Es gibt ganz vielen Legacy- Kram in den Strukturen.

Ich bin echt gespannt, wann es da von deren Seite eine Abhandlung über den Entstehungsprozess gibt.
Bis jetzt waren sie dabei im Nachhinein recht ehrlich.

Man erinnere sich an die Downgrade- Diskussion vom Witcher 3, wo sie im Nachhinein recht offen davon gesprochen haben, dass sie Dinge wie die globale Beleuchtung streichen mussten, weil es auf den Konsolen damals nicht umsetzbar war und was das für ein Aufriss war.
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben