News Nvidia reicht Patentklage gegen Samsung ein

Ich denke Nvidia wird scheitern. Sie haben ja nicht die Unified Shader entwickelt.. Und AMD wird wohl auch kaum bei NV mal reingeschaut haben um Imageon auferstehen zu lassen. In wieweit Samsungs Exynos mit Unified Shader Technologie ausgestattet ist, sei mal dahin gestellt. Wäre das Gericht weitsichtig, müsste man grade diese Technologie "FRAND" stellen. Meines wissens nach hat ein MIT Professor der von IBM Stammt die Technologie dazu entwickelt, kann mich aber auch Irren.
Ich glaube nicht, dass NV damit gegen Quallcomm und Samsung durchkommt. Ausser es fließen wieder nette Gelder ;)
Nunja NVs Preisgehabe ist ja das wie Apples, vielleicht möchte man nun auch das Klageverhalten annehmen

Achja die Erste Technik, die Unified Shader genutzt hat, war der Xenos der Xbox 360, Open GL 3.3 , also weit vor Nvidias Fermi Architektur.

http://en.wikipedia.org/wiki/Unified_shader_model

Ich denke es wird und muss "Frand" werden. Aber in Amerika ticken die Uhren ja anders
 
Richthofen schrieb:
Falsch. Um eine Entwicklung überhaupt umsetzen zu können muss erst mal R&D investiert werden. Das ist ein unternehmerisches Risiko. Es kann gut gehen oder auch schief gehen. Wenn es schief geht, dann ist das Kapital an der Stelle weg. Deshalb muss sich jedes Risiko auch verzinsen. Und je höher das Risko desto höher der Zins. Diesen kausalen Zusammenhang kannst Du bei jedem Anlageprodukt am Kapitalmarkt erkennen.

Es ist also völlig normal, dass bei einer erfolgreichen Entwicklung nicht einfach nur die Entwicklungskosten halbwegs zu decken sind sondern im Anschluss daran entsprechende Gewinne fließen. Und damit eben nicht jede 0815 Bude aus China oder anderswo ohne eigenes unternehmerrisches Risiko Geschäfte auf Kosten anderer machen kann die den Invest getätigt haben, genau dafür sind Patente eben da um das zu schützen und das vollkommen zu Recht!

Es ist also alles andere als Wurst. Das ist die Basis unseres Wirtschaftssystems. Man kann sicher darüber streiten ob bestimmte Dinge patentierungswürdig sind. Bei Apple habe ich da zum Teil meine Zweifel. Wenn es aber technische Dinge sind für die Entwicklungskosten angefallen sind, dann ist das absolut patentierungswürdig und von allen Marktteilnehmern zu beachten.

Das stimmt schon, vielleicht war meine Aussage etwas zu übertrieben.
Wenn es um bestimmte Techniken geht, welche ein bestimmtes Produkt erst ermöglichen, ist es aber auch wieder was anderes, als wenn eine Grundlegende Technik Patentiert wird welche z.B. angibt, dass CPU und GPU auf einer Platine gebaut werden können (nur als Beispiel).
Was genau diese Patente hier anrichten weiß ich nicht, weil ich mir es nicht genau angeschaut habe. Aber es klingt auf den ersten blick nach grundlegender Technik.

Es sollte bei Patentverletzungen unterschieden werden (auch wenn es schwer nachweisbar ist) ob einfach nur abgeguckt wurde oder komplett auf eigene faust entwickelt wurde und das gleiche bei rauskam, bei letzterem sehe ich keine Grundlage mehr für eine Patentklage.
 
Naja, werbetechnisch haben aber solche Patentkriege auch was Positives. Siehe Reaktionen User bezüglich Apple vs Samsung. Vllt kann NV ja auch User vermitteln, was Grafik angeht, haben wir alles erfunden ^^



AMD-Mafiosi schrieb:
I In wieweit Samsungs Exynos mit Unified Shader Technologie ausgestattet ist, sei mal dahin gestellt.

Achja die Erste Technik, die Unified Shader genutzt hat, war der Xenos der Xbox 360, Open GL 3.3 , also weit vor Nvidias Fermi Architektur.

http://www.freepatentsonline.com/6897871.html

Also so wie ich das lese, ist das Patent frei und kommt sogar von ATI selbst.

"programmable shading"

http://de.wikipedia.org/wiki/Streamprozessor

Auch hier war ATI mit ATI Stream Cores früher dran und zwar seit der ATI X1000 Serie.

Aber Vllt ist NV auch der Meinung sie haben alles erfunden.

Was übrigens interessant ist, dass alle erwähnten Firmen von der HSA Foundation sind, die dann auf HSA setzten werden.
 
Zuletzt bearbeitet:
Das Problem ist, dass diese neuen Chips alle erst nach nVidia's Patent in den Markt kamen. Sie existierten also nicht vorher.

Es ist viel einfacher auf vorhandenes aufzubauen als es selbst zu erforschen, zu entwicklen und als erster in den Markt zu bringen.

GPGPU ist doch das perfekte Beispiel: Von nVidia mit G80 erfunden, wurde es dann von vielen anderen adoptiert. Selbst Sprachen wie OpenCL und DirectCompute haben Beziehungen zu Cuda.

nVidia's Problem ist, dass sie Geld für ihr IP haben wollen. Siehe auch die Ankündigung der Lizenzierung vom letzten Jahr.
Aber wenn jeder um drei Ecken an die selbe IP ohne zu bezahlen kommen kann, dann macht deren Lizenzmodell kein Sinn.

Ergo: Wird jetzt geklagt. Und wenn das positiv durch ist, werden auch andere Unternehmen eher auf die zukommen, um direkt bei ihnen IP/Grafik-Technik kaufen.
 
ShelbyBoss schrieb:
Wenns Hart auf Hart kommt, kauft Samsung einfach Nvidia. :D
Umsatz: 247,5 $ (2012) gegen 4,13 $ (2013)

Ohne JHH und seine Gründungskollegen kann Samsung und auch kein anderer Nvidia kaufen. Ich glaub da musst Dir was anderes ausdenken. Ohne deren Zustimmung geht bei dem Unternehmen nix.
 
Sontin

NV hat GPGPU nicht erfunden

Ergo: Wird jetzt geklagt. Und wenn das positiv durch ist, werden auch andere Unternehmen eher auf die zukommen, um direkt bei ihnen IP/Grafik-Technik kaufen.

Außer man geht zu AMD, holt dort dann die Lizenzen, die offener mit ihren Standards sind und treten der HSA Foundation bei.

Was natürlich nicht mehr für jetzige Produkte gilt.
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Ich denke es wird und muss "Frand" werden. Aber in Amerika ticken die Uhren ja anders

Dann müssten ja auch sämtliche UMTS, LTE und andere Kommunikationspatente von Qualcomm "FRAND" werden. x86 von Intel kannst dann auch gleich dazu gesellen. Sind sie aber nicht. Dementsprechend muss auch Nvidia's Zeug nicht "FRAND" werden.
 
Wieder mal ein guter Moment, um zumindest über eine Reformierung des Patentsystems nachzudenken. Ein Patent auf einen Chip der gleichzeitig für Berechnung und Bildausgabe sorgt, halte ich für "gewagt". Ich bin mir sicher, dass IBM oder irgend jemand der alten Größen sowas schon rudimentär am Markt hatte, bevor es nVidia überhaupt gab.

GPGPU ist doch das perfekte Beispiel: Von nVidia mit G80 erfunden, wurde es dann von vielen anderen adoptiert.

Ach jetzt hat nVidia schon nicht-grafik Berechnungen auf der GPU erfunden? Interessant! Erzähl mir mehr :rolleyes:
Und dann auch noch erst mit G80 :freak:

Hab eben bei Geizhals nachgeschaut, von den insgesamt 66 Samsung Laptops gibts gerade einmal 3 mit Nvidia GPU.

Das wird wohl ein Grund sein, warum man den Schritt gegangen ist. Würde Samsung so fleißig nVidia Chips abnehmen wie Acer oder Asus, in ihren Tablets und Smartphones sowie Fernsehern Tegras verbauen und vielleicht noch Quaddros abnehmen, hätte man sicher auf diese Klage verzichtet. Das Engagement im HSA Bereich tut vielleicht ihr übriges, wird nVidia von dieser Entwicklung mangels eigener X86 Hardware und marktfähigen SoCs doch ernsthaft bedroht.
 
Sontin

GCN war zu Release des G80 ebenso schon in Entwicklung, wurde von AMD erst 5 Jahre später auf den Markt gebracht. Es ändert trotzdem nichts an der Tatsache, dass AMD bereits seit der 1000 Serie dessen GPUs für andere Berechnungen verwenden konnte.

Aber um es genau zu nehmen, kommt es weder von NV noch von ATI, soviel ich das verstanden habe.

Für mich klingen die Anschuldigungen teils einfach sehr oberflächig, aber vllt ist das nur auf den Online Seiten so oberflächig beschrieben.
 
Zuletzt bearbeitet:
Klar und G80 hat nVidia innerhalb von 5 Minuten entwickelt, gell?
GPGPU existiert aufgrund von programmierbaren Recheneinheiten - eingeführt mit NV30 (Geforce 3) im Mai 2001. Seitdem können GPUs programmiert werden und arbeiten nicht nur einen vorgegebenen Befehlssatz ab.

Das ändert trotzdem nichts, dass GPGPU erst relevant wurde als nVidia mit G80 und CUDA (u.a. beteiligt war Ian Buck und der hat auch an Brook gearbeitet) veröffentlicht haben. Jahre vor der Konkurrenz.

Genauso eben auch mit der "GPU".
 
:lolcool also gabs gpgpu erst mit gcn,
ich muss mal sehen mit was ich bis vor gcn gpgpu verwendet habe
(da wäre ja mal die vliw4 karten hier, die vliw5 5xxx usw.):lol::lol::lol::lol::lol:
--------------------------------------------------------------------------------------------------------------------
gpgpu war doch zwischen verschiedenen firmen und unis entwickelt worden
 
Zuletzt bearbeitet:
Weder AMD noch Nvidia haben GPGPU erfunden. Sowas ist immer ein Zusammenspiel von Grundlagenforschung und verschiedener Firmen. Ich wette das da die eine oder andere Uni ihren Beitrag zu geleistet hat. Sollen die jetzt auch alle NV verklagen?
Wenn NV bestimmte Patente hat sollen sie die verteidigen, aber zu behaupten dass NV GPGPU erfunden hat ist etwa so verrückt, wie zu behaupten Intel hätte die CPU erfunden.
 
marco_f

Der Einzige, der das wieder behauptet ist Sotin. Wie ich schon schrieb, es hat wieder AMD noch NV "erfunden" .
 
Ist Samsung jetzt ein Hersteller der Patente anderer Firmen einfach so ignoriert ?
Samsung ist doch immer wieder im Patentstreit mit Apple, Microsoft, und jetzt auch mit Nvidia.

Bin mal gespannt, wann es das erste Verkaufsverbot für Samsung Smartphone oder Tabletts gibt.
Die Anwälte werden sich eine Goldene Nase dabei verdienen.

Leider gibt es immer noch keine Eindeutigen Richtlinien was Patent fähig ist und was nicht.
Irgendwann wird kein Hersteller etwas neues entwickeln und produzieren können, weil irgend ein Patent es verbietet.
Also zahlen an den Patentinhaber, was die Geräte verteuert, es so versuchen wie Samsung, oder es bleiben lassen.
 
Tranceport schrieb:
Wieso muss Samsung denn dafür Sorge tragen, dass eingesetzte Fremdlösungen von deren Hersteller korrekt lizensiert sind?

Wenn du dir irgend etwas gekautes kauft darfst du es behalten wenn es raus kommt?Weil sie nach her dafür gerade stechen müssen!Wie jetzt!
 
Wir kriegen von dem ganzen Vorgang eh nichts mit. Zur Not zahlt Samsung halt ka. 1 Mrd. Euro an Nvidia, das ist für Samsung nen Kleckerbetrag bei jährlich 300-400 Mrd. Euro Umsatz. oder die einigen sich iwie anders und gut ist. Die Anwaltskanzleien von beiden Firmen fetzen sich, das kostet ordentlich, die haben schön was zu tun aber wir werden davon garnichts merken.
 
pipip schrieb:
Sontin

GCN war zu Release des G80 ebenso schon in Entwicklung, wurde von AMD erst 5 Jahre später auf den Markt gebracht. Es ändert trotzdem nichts an der Tatsache, dass AMD bereits seit der 1000 Serie dessen GPUs für andere Berechnungen verwenden konnte.

Aber um es genau zu nehmen, kommt es weder von NV noch von ATI, soviel ich das verstanden habe.

Für mich klingen die Anschuldigungen teils einfach sehr oberflächig, aber vllt ist das nur auf den Online Seiten so oberflächig beschrieben.

Richtig. Ich meine es wurde am MIT entwickelt.. und nicht von NV.. Intressant ist ja auch, dass viele Professoren diese Patente haben, wenn sie nun zu IBM, AMD, Intel oder NV gehen, sind die Pantente dann nicht immer noch Persönliches Eigentum und nicht Huang seines? Ich frage mich was NVidia damit versucht zu bezwecken.. Thema FRAND: JA X86 wäre die erste Lizenz die ich Frand setzen würde. Sollen ruhig die Zeiten wiederkommen, wie Damals als AMD für Intel Lizenzen gebaut hat. Ein Sandybridge mit einem Aktuellen Prozess sollte genug Abnehmer finden. Wohl haben die Finanzabteilungen was dagegen.. Achja Sontin lies dich mal ins Thema ein und geh wo anders Trollen. Weder Nvidia noch AMD haben es erfunden, es kommt Ursprünglich sogar von IBM, wuder dann aber Adaptiert, wie das meistens so ist.

Bitte sehr, hier stehts auch Schwarz auf Weiß.. Und das war VOR der G80:
http://electronics.howstuffworks.com/xbox-three-sixty3.htm

Extra noch für Sontin:
Sie wurde Ende 2005 auf den Märkten der Vereinigten Staaten, Europas und Japans eingeführt. In Ozeanien war sie ab Ende März 2006 erhältlich.

Während bei der ersten Xbox ein Grafikprozessor (GPU) von Nvidia eingesetzt wurde, wird bei der Xbox 360 ein Chip des Herstellers ATI verbaut. Der Grafikprozessor namens Xenos dient gleichzeitig als Northbridge zwischen CPU, Southbridge (I/O) und dem Systemarbeitsspeicher.[43]

500 MHz Taktfrequenz[44]
10 MB eDRAM Framebuffer,[44] exklusiv für Antialiasing-Daten[45], bei der Xbox 360 S in einen Chip („Vejle“[46]) bestehend aus Haupt- und Grafikprozessor integriert
332 Millionen Transistoren (232 Millionen GPU, 100 Millionen eDRAM)[40]
theoretisch bis zu 240 GFLOP pro Sekunde[47][48]
48 Unified-Shader-Architektur[44] (zwei Operationen pro Takt pro Pipeline)
jede Pipeline kann Pixel- und Vertex-Shader ausführen[44]
organisiert in drei SIMD-Gruppen mit je 16 Prozessoren[49]
pro SIMD-Gruppe ist maximal eine Instruktion ausführbar[49]
verfügt über Tessellations-Einheiten[50][51]
48 Milliarden Shader-Operationen pro Sekunde (ohne CPU)[49]
500 Millionen Polygone pro Sekunde[49]
160 Shader-Vorgänge pro Taktzyklus[52]
Shader Model 3.0+ (bedeutet einige zusätzliche Funktionen)[45]
Unterstützt werden die Bildschirmformate 480p, 720p, 1080i und 1080p, sowie die TV-Modi PAL-50 und PAL-60
45-nm-Architektur,[41] 65 nm von November 2008 bis Juni 2010 („Jasper-Mainboard“[53]), davor 90 nm[44]

Aber Ja ATI hatte damals einblicke in NVidias Technologieabteilung oder was willst du gleich erzählen?
 
Zuletzt bearbeitet:
Zurück
Oben