News Arctic Sound: Details zu Intels diskreter GPU angeblich noch im Dezember

Aldaric87 schrieb:
Es gibt immer noch Glaubenskriege ob G-Sync oder FreeSync besser ist? Unfassbar, G-Sync ist proprietärer Mist, den keine Sau braucht, wenn es dafür offene Standards gibt. Anti-Consumer, typisch nVidia halt.
Falsch! Gsync ist technishc hier weiter. Punkt. Es liefert HDR1000 mit 4k bei einer größeren Range als Freesync 2. Es ist propiertär ja. Das macht es nicht zu Mist, den keiner braucht, außer man ist son roter FOrenkrieger wie du. aus technischer Sicht bietet Gsync mehr und Freesync bietet derzeit nicht einen Monitor, der auch nur ansatzweise was vergleichbares bietet.

Aldaric87 schrieb:
Ach, und inwiefern strafft AMD die Voraussetzungen? Stimmt, mit einem offenen Standard der sich HDR600 nennt. Dieser ist Mindest-Voraussetzung für FreeSync 2, ist aber genau so ein offener Standard.
Falsch! Mindestvorraussetzung ist Display HDR400 bzw leicht darüber, aber eben NICHT Display HDR 600 und damit ein Standard, den man kaum als HDR bezeichnen kann. Und da adaptivsync gar keine mindestvorraussetzung an HDR hat sind wir eben an dem punkt, um den es geht. Freesync basiert auf adaptivsync, ist aber eben nicht das selbe.
 
Sturmwind80 schrieb:
Arctic Sound ist schon ein wirklich guter Name für eine Grafikkarte. :daumen:
Da hat sich die Marketing-Abteilung von Intel ja selber übertroffen, oder wird die Karte besonders laut?
he he .. ja das selbe habe ich gedacht , entweder wird das eine Soundkarte oder Grafikkarte mit sehr lauten Lüfter , oder
was dazwischen. 😁
 
  • Gefällt mir
Reaktionen: Three of Nine
RYZ3N schrieb:
Ich würde mich ja über ein übersichtliches Portfolio von 4-6 GPUs im Preisbereich von 100,— bis 600,— Euro freuen.


Wobei ich eher glaube, dass man sich auf 1-2 Karten für den Endkunden beschränken wird, zumindest am Anfang. Als Ziel hat man ja Beschleunigerkarten für Server. Wahrscheinlich entwickelt man dafür eine große GPU und nicht gleich eine ganz Serie.

Dann würden sie wahrscheinlich nur mit zwei Consumerkarten starten. Es sei denn, sie verfolgen einen modularen Ansatz.

Aber wenn Intel für eins bekannt ist, dann für ein viel zu überladenes Portfolio... Da muss man sich nur mal das Lineup für die letzten Sockel angucken. Oder auch den notebook markt. Hier paar mhz mehr, da ein paar mb mehr cache und schon hat man ein neues Modell. Oder Skylake-X und das Refresh.
 
Hitomi schrieb:
Mal sehen was das für Karten werden. Wenn es Desktop Karten werden, sollten die aber auch bitte endlich HDMI 2.x haben. Viele aktuelle Mainboards gurken ja immer noch mit HDMI 1.4 rum und damit kann man nunmal keinen PC am TV mit 4k/60Hz betreiben :freak:

Dies ist nicht korrekt. Die Webseiten geben meist nur HDMI 1.4 an aber es geht auch mit den gleichen Boards HDMI 2.0 da es nicht auf die Buchse sondern die verbaute IGPU ankommt! Sprich verbaust du eine alte CPU dann hast den alten HDMI Standard , verbaust eine aktuelle CPU ( zb. Ryzen 2200g oder 2400g) dann hast den neuen Standard!
 
  • Gefällt mir
Reaktionen: Volkimann
Ich mache mir keine Hoffnungen das Intel am GPU Sektor zu NVIDIA aufschließen kann. Selbst bei einer genialen Architektur werden wir beobachten können wie auf NVIDIA ausgelegte Spiele und Engines auch nur sehr mäßig damit laufen werden.
Die Softwareoptimierung ist gerade in DX11 Spielen so sehr auf NVIDIA fokussiert, das ich nicht an einen großen Wurf glaube. Selbst wenn mit Intel ein Konzern dahinter steht der mit Geld um sich werfen kann.
 
  • Gefällt mir
Reaktionen: derSafran
Sturmwind80 schrieb:
Arctic Sound ist schon ein wirklich guter Name für eine Grafikkarte. :daumen:
Da hat sich die Marketing-Abteilung von Intel ja selber übertroffen, oder wird die Karte besonders laut?
Denke immer an die Nvidia FX Karten...
 
  • Gefällt mir
Reaktionen: Three of Nine und andi_sco
Nach dem Fail der RTX-Schrott Karten haben Intel und AMD jetzt die Chance Nvidia paar Marktanteile abzuknöpfen. Die richtigen "Brains" hat Intel sich ja an Board geholt, bin mal gespannt was am Ende rauskommt :)
 
Mustis schrieb:
Falsch! Gsync ist technishc hier weiter. Punkt. Es liefert HDR1000 mit 4k bei einer größeren Range als Freesync 2. Es ist propiertär ja. Das macht es nicht zu Mist, den keiner braucht, außer man ist son roter FOrenkrieger wie du. aus technischer Sicht bietet Gsync mehr und Freesync bietet derzeit nicht einen Monitor, der auch nur ansatzweise was vergleichbares bietet.
Was möglicherweise am Versagen der Monitorhersteller bei DP1.4 bzw. UHD@120Hz liegt. Mit solchen Geräten wäre 1080p auf einen Schlag tot und 90% der Geräte quasi unverkäuflich. Der TV-markt hat das Massaker bereits hinter sich. Welcher BWLer sollte dies bitte wollen...

OzzTheBozz schrieb:
... was am Ende rauskommt :)
Das gute alte many core nur dieses mal ohne nutzloses X86. Intel brauch einfach was für die Rechenzentren dieser Welt. Das NV sich dumm verdient muss ja nicht so bleiben. Um mit den nutzlosen Tensorcores im Spielebereich was zu machen, hast du eben RTX bekommen.
 
Ich würde mir wünschen, dass sie zumindest mitziehenund sich dadurch Adaptive Sync noch weiter verbreitet, damit NVIDIA endlich auch AS implementiert. Wie mich künstliche Beschränkungen nerven. Sie können ja ruhig G-Sync weiter parallel betreiben, wenn sie der Überzeugung sind, dass es deutliche Vorteile bietet. Es gibt genug Enthusiasten und Fanboys die es schon noch kaufen werden.
 
Wäre schon sehr gut wenn ein dritter Player auf den GPU-Markt kommt. Vermutlich würde sich der GPU-Markt in Zukunft dann folgendermaßen aufteilen:

AMD: Low-End mit hohem Stromverbrauch = Schlechte Effizienz = Billig
Intel: Mid-Range mit mittlerem Stromverbrauch = Moderate Effizienz = Moderate Preise
nVidia: High-End mit geringem Stromverbrauch = Hohe Effizienz = Teuer

Bitte nicht ganz so ernst nehmen, sind nur Gedankenspiele und keine exakte voraussage der Zukunft!
 
ThomasGoe69 schrieb:
Gibt es schon Benchmarks oder Leaks ? :D

- Wird vermutlich in 22nm produziert, da die 14nm Straße gerade etwas überlastet ist
- Leistung vermutlich zwischen RX570 oder Vega 56 Niveau
- Preislich zwischen der RTX 2080 und der 2080Ti um mutmaßliche Verluste im Server und Desktop Segment wieder einzufahren
- Verfügbarkeit wird gegeben sein, sofern man den 22nm Prozess wieder ans laufen bekommt
- Die Sync Technologie wird vermutlich I-Sync genannt um ein Proprietäres Alleinstellungsmerkmal zu haben
 
  • Gefällt mir
Reaktionen: Alpha.Male und Three of Nine
Uiii, Konkurenz ist immer gut. Mal guggn. Schlecht allerdings wenn die GPU's klasse werden, aber dann Intel entscheidet, dass das volle Potential nur mit Intel CPU's nutzbar sein wird. Das traue ich Intel voll und ganz zu. Erwarte ich sogar...
 
Ich erwarte zwar auch keine Highend-gamingkarten, aber Intel hat die finanziellen Mittel und das Potenzial. Know-how kann man sich erkaufen. Hoffen wir mal das beste.
 
  • Gefällt mir
Reaktionen: Zitterrochen
Gamefaq schrieb:
Dies ist nicht korrekt. Die Webseiten geben meist nur HDMI 1.4 an aber es geht auch mit den gleichen Boards HDMI 2.0 da es nicht auf die Buchse sondern die verbaute IGPU ankommt! Sprich verbaust du eine alte CPU dann hast den alten HDMI Standard , verbaust eine aktuelle CPU ( zb. Ryzen 2200g oder 2400g) dann hast den neuen Standard!

Die Rede ist von Intel Mainboards und Intel Chips können derzeit kein HDMI2.0 nativ (ausser ein paar 10nm Abfälle). Bei den NUCs wird HDMI2.0 deshalb über eine DP->HDMI Bridge realisiert.
 
Zuletzt bearbeitet:
Luzifer71 schrieb:
Intel: Mid-Range mit mittlerem Stromverbrauch = Moderate Effizienz = Moderate Preise

Finde den Fehler :D
 
estros schrieb:
Adaptive Sync, nicht FreeSync, du hast es doch schon richtig zitiert.

waren die nicht untereinander kompatibel? bzw. ist freesync nicht sogar adaptive sync?
 
Sturmwind80 schrieb:
Arctic Sound ist schon ein wirklich guter Name für eine Grafikkarte. :daumen:
Da hat sich die Marketing-Abteilung von Intel ja selber übertroffen, oder wird die Karte besonders laut?

Aus einem älteren CB Artikel:
Nach See kommt Meerenge
Sound steht im Englischen nicht nur für Klang, sondern auch für Meerenge. Vor diesem Hintergrund ergibt die Bezeichnung durchaus Sinn. CPU-Architekturen benennt Intel seit Skylake nach fiktiven Seen („Lake“).
 
  • Gefällt mir
Reaktionen: andi_sco
Ein dritter Player am Markt, der auch konkurrenzfähig ist, kann uns Gamern nur in die Karten spielen. Ich hoffe die Karte ist ein Brett und kommt an die Konkurrenz ran oder überholt diese.
 
Mustis schrieb:
Falsch! Gsync ist technishc hier weiter. Punkt. Es liefert HDR1000 mit 4k bei einer größeren Range als Freesync 2. Es ist propiertär ja. Das macht es nicht zu Mist, den keiner braucht, außer man ist son roter FOrenkrieger wie du. aus technischer Sicht bietet Gsync mehr und Freesync bietet derzeit nicht einen Monitor, der auch nur ansatzweise was vergleichbares bietet.

Ich war jetzt fast beindruckt, wie super GSync generell so sein soll, bis ich festgestellt habe, das es genau einen Monitor gibt (für schlanke 2500€), der die von dir besungenen Eigenschaften tatsächlich auch vereint.

Klar gibt es genau 0 davon mit Freesync...aber deine Formulierung lies da doch anderes Vermuten.

Roter Forenkrieger...ja ne, is klar. Leichte rot-grün Schwäche?
 
  • Gefällt mir
Reaktionen: duskstalker, Zitterrochen, cookie_dent und eine weitere Person
jetzt hole ich mal die glaskugel raus....

wenn die karte nicht total am markt vorbei entwickelt wird, sollte sie mindestens die leistung einer 2020 erscheinenden konsole zur gleichen zeit erreichen. wir reden also von um die 12-15? teraflops. das ganze mit den doch ziemlich guten intel fertigungs techniken im 100watt bereich mit 8gb ram und das teil findet sogar abnehmer.

auf diesem gerüst kann man dann alles aufbauen, was die geneigte industrie an KI und wünschdirwas features noch haben möchte.

dann kommt der 10nm (7nm) shrink mit mehr takt und mehr compute units. landet man ohne viel aufwand schnell im 20-30 Tera flop bereich und hat ein sauberes produkt mit dem man bis 2025 arbeiten kann.

mfg
 
Zurück
Oben