Encoding Geschwindigkeit / Prozesssor Auslastung pro Kern

  • Hallo reencoder17,

    [FONT=&amp]ja, wir hatten im damaligen PC-Geschäft ebenfalls ein Problem. Allerdings war das bei einer Workstation. Da war, glaube ich, ein Jumper auf dem Mainboard falsch gesetzt.
    Das war im Jahr 2001. Lese gerade, dass Server-Boards tatsächlich auch mit der 2600er-Serie auf einer 1-Sockel-CPU klar kommen.
    Scheinbar bietet hierzu das UEFI besondere Funktionen. Vermutlich wird da die gegenseitige Kommunikation abgeschaltet.[/FONT]

    [FONT=&amp]Du darfst aber nicht zuvor den CPU-Takt um das Doppelte heruntersetzen, und dann schreiben, dass die Leistung der Kerne fehlt.
    Denn wenn Du den Takt von deinem E3 auf 2.0 GHz senkst, dann bringt dieser auch nicht mehr die Leistung, die Du gewöhnt bist.
    Man muss sich entscheiden, entweder weniger Stromverbrauch, oder höhere Leistung. Die CPU kann da nichts dafür. [/FONT]
    [FONT=&amp]
    sneaker2:
    Ja, für die 72-Kerne muss dann jede Software angepasst werden. Dass diese vielen Kerne überhaupt voll genutzt werden können, muss das auch das Betriebssystem unterstützen.
    Ob das Win. 10 Pro supportiert ist fraglich, höchstwahrscheinlich muss auf ein neues Server-OS gewartet werden.
    Das können wir vermutlich vergessen, denn mit einer Server-Software laufen keine Video-Schnitt-Programme oder PC-Spiele.[/FONT]

    [FONT=&amp]Gute Schnitt-Software unterstützt bereits 2x 12-Kerne-CPUs.[/FONT]

  • ... mit einer Server-Software laufen keine Video-Schnitt-Programme oder PC-Spiele.

    Da kenne ich Gegenbeispiele. Abhängig von Einstellungen und Ausstattung kriegt man auch auf Windows Server durchaus DirectX und OpenGL als grafische Basis hin, und zu XP-Zeiten war ein Server 2003 sogar nützlich zum Betrieb in einem Modus, der von den 4 GB RAM für 32-bit-OS etwas mehr für Anwendungen freigab als XP Pro. Aber gut, das ist Geschichte. Heute geht es um 64-bit-OS, da kann man gerne an die 32 GB RAM gebrauchen, wenn man für UHD encodiert (für 8K fraß x265 gleich mal 12 GB, glaube ich mich zu erinnern, und bei Multi-Socket-Systemen lässt man am besten mehrere Instanzen gleichzeitig rechnen, das ist effizienter als die Hoffnung, für eine Instanz alle Kerne auslasten zu können).

  • Ja, das ist richtig. Ich kenne aber keine Schnitt-Software, die z. Bsp. mit Win. Server 2012 R2, also auf einer reinen Server-Plattform läuft.
    Das ist leider nur ab Win. 7 bis Win. 10 möglich. Interessant ist ein Server-OS nur wegen der weitaus mehreren CPUs, die man dadurch ansprechen kann.
    Für ein zügiges Hintergrund-Rendering sollten mindestens 16 GB-RAM installiert sein.

    Ich bin gespannt, wie weit die Senderanstalten UHD treiben wollen. Eventuell bis 32K?
    Kann ich nicht glauben, da wird vermutlich der Kontrastbereich zwischen Hautfarbe und hellen Stellen in der Studioumgebung zu hoch.
    Die hatten schon Schwierigkeiten bei HD 1080. 8K wird noch kommen.

    Für den Amateur, werden wahrscheinlich die spezifizierten 22.2-Tonkanäle auf 7.1 beschränkt.
    Da 24 Audio-Kanäle von den Amateuren vermutlich nicht mehr synchron gehalten werden können.
    Ich besitze noch ein Schreiben von 1970, darin heißt es „Aber eine Oktofonie (8-Tonkanäle) wird es nie geben“.

    Damals war 2x Quadrofonie, ohne Basskanal gemeint. Das Argument der Industrie war, dass die Kunden kein Geld für 2 weitere Lautsprecher mehr ausgeben, da zu teuer.

    So ändern sich die Zeiten. Alleine die Datenrate nur für 4K ist ja enorm. Für nur eine Videospur nativ, werden 185 MB/s benötigt. Das schaffen zurzeit nur schnelle SSDs.
    SLC-Chips wären für eine längere Lebensdauer optimal. Um 3 Bildspuren flüssig zu bearbeiten, braucht man SSDs mit mindestens 600 MB/s.
    Erst mit 3 solchen SSDs, kann man überhaupt 4K ruckelfrei bearbeiten. Interessant ist, dass es noch kein Display gibt, das BT.2020 wiedergeben kann.
    Aber jetzt kommen die Qualitätsspezialisten, diese erstellen 4K-Filme mit dem 4K-Handy.

    [FONT=&amp]LEGEND (applies to Windows OS only):[/FONT]
    [FONT=&amp]Alle Daten gelten nicht nur für Supermicro-Mainboards.[/FONT]

    [FONT=&amp][1]. Windows Server 2008 R2 x64[/FONT]
    [FONT=&amp] SFT-MS-WS08R2FDN: Windows Server 2008 R2 Fou[/FONT][FONT=&amp]ndation 64bit,limit to 1 CPU/8GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS08R2STD: Windows Server 2008 R2 Standard 64bit,limit to 4 CPUs/32GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS08R2ENT: Windows Server 2008 R2 Enterprise 64bit,limit to 8 CPUs/2TB Memory[/FONT]
    [FONT=&amp] SFT-MS-WSS08R2STD: Windows Storage Server 2008 R2 Standard, limit to 4 CPUs/32GB Memory[/FONT]

    [FONT=&amp][2]. Windows Server 2012 x64[/FONT]
    [FONT=&amp] SFT-MS-WS12FDN: Windows Server 2012 Foundation 64bit,limit to 1 CPU/32GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12ESS: Windows Server 2012 Essentials 64bit,limit to 2 CPUs/64GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12STD: Windows Server 2012 Standard 64bit(2CPU/2VMs Per LIC),limit to 64 CPUs/4TB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12DCT: Windows Server 2012 Datacenter 64bit(2CPU Per LIC),limit to 64 CPUs/4TB Memory[/FONT]

    [FONT=&amp][3]. Windows Server 2012 R2 x64[/FONT]
    [FONT=&amp] SFT-MS-WS12R2FDN: Windows Server 2012 R2 Foundation 64bit, limit to 1 CPU/32GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12R2ESS: Windows Server 2012 R2 Essentials 64bit, limit to 2 CPUs/64GB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12R2STD: Windows Server 2012 R2 Standard 64bit (2CPU/2VMs Per LIC),Limit to 64 CPUs/4TB Memory[/FONT]
    [FONT=&amp] SFT-MS-WS12R2DCT: Win Server 2012 R2 Datacenter 64bit (2CPU Per LIC),limit to 64 CPUs/4TB Memory[/FONT]

    [FONT=&amp][4]. Windows 7 Professional/Ultimate[/FONT]
    [FONT=&amp] SFT-MS-W7PRO32: Windows 7 Professional 32bit,limit to 2 CPUs/4GB Memory[/FONT]
    [FONT=&amp] SFT-MS-W7PRO64: Windows 7 Professional 64bit,limit to 2 CPUs/192GB Memory[/FONT]
    [FONT=&amp] SFT-WS-W7UT64: Windows 7 Ultimate 64bit,limit to 2 CPUs/192GB Memory[/FONT]

    [FONT=&amp][5]. Windows 8 Professional[/FONT]
    [FONT=&amp] SFT-MS-W8PRO32: Windows 8 Professional 32bit,limit to 2 CPUs/4GB Memory[/FONT]
    [FONT=&amp] SFT-MS-W8PRO64: Windows 8 Professional 64bit,limit to 2 CPUs/512GB Memory[/FONT]

    [FONT=&amp]Für Win. 10 Pro und Server 2016, liegen mir leider noch keine Daten vor. Mainbords von Supermicro, sind etwas besser für Videoschnitt abgestimmt.
    Gamer können sich auch für andere Mainboard-Hersteller entscheiden.
    [/FONT]

  • Zitat

    Windows 10 supports maximum memory configurations that were formerly available only in the realm of servers.
    Windows 10 Home supports up to 128GB of RAM on the x64 platform.
    Windows 10 Pro and Enterprise both support up to 512GB on the x64 platform.
    The x86 versions of Windows 10 support a maximum of 4GB of RAM.
    Windows 10 supports a maximum of two physical CPUs, but the number of logical processors or cores varies based on the processor architecture.
    A maximum of 32 cores is supported in 32-bit versions of Windows 8, whereas up to 256 cores are supported in the 64-bit versions.


    Quelle: http://answers.microsoft.com/en-us/windows/…30-b9e7519c823f

    Zitat

    Mainbords von Supermicro, sind etwas besser für Videoschnitt abgestimmt.


    Woran machst Du eine bessere Abstimmung für Videoschnitt fest?

    Zitat

    Interessant ist, dass es noch kein Display gibt, das BT.2020 wiedergeben kann.


    Yup, selbst die aktuell erhältlichen Referenzbildschirme decken BT.2020 nicht komplett ab. :D

    Zitat

    Aber jetzt kommen die Qualitätsspezialisten, diese erstellen 4K-Filme mit dem 4K-Handy.


    4k Auflösung muss ja nicht heißen, dass auch BT.2020 verwendet wird und da die meisten Menschen zu ihrem Handybildschirm einen kleineren Abstand als zu ihrem Monitor beim Betrachten des selbigen haben machen 4k auf Handies&Co durchaus Sinn.

    Zitat

    So ändern sich die Zeiten. Alleine die Datenrate nur für 4K ist ja enorm. Für nur eine Videospur nativ, werden 185 MB/s benötigt. Das schaffen zurzeit nur schnelle SSDs.
    SLC-Chips wären für eine längere Lebensdauer optimal. Um 3 Bildspuren flüssig zu bearbeiten, braucht man SSDs mit mindestens 600 MB/s.


    4k = 3840 × 2160 Pixel bei 3 Byte per Pixel (24bit RGB) sind das 24883200 byte = 24300 kByte = 23,73046875 MB pro Bild bei 60 fps wären das 1 423,828125 MB/s (nebenbei: auch das geht wenn man ein RAID system verwendet)
    -> Was nennst Du eine native Videospur?

    Zitat

    Ich bin gespannt, wie weit die Senderanstalten UHD treiben wollen. Eventuell bis 32K?


    Wenn ich mich recht entsinne (aus dem Gedächtnis) kann das menschliche Auge normalerweise zwischen 2190 ppi (dpi) und 876 ppi (dpi) wahrnehmen.
    (Volle Sehstärke hat man wenn man 876 ppi (dpi) auf ~10cm wahrnimmt.)
    -> Sehe nicht das da 32k für Fernsehen mit menschlichen Augen Sinn macht.


    Cu Selur

    Ps.: nach etwas suchen hab ich auch nen kleinen Artikel dazu gefunden der dem entspricht was ich im Kopf hatte -> http://wolfcrow.com/blog/notes-by-…-the-human-eye/

  • Nicht zu vergessen, dass von der Netzhaut bis zur Großhirnrinde viele neuronale Strukturen die Bilderkennung deutlich beeinflussen, da kommt es noch nicht mal auf perfekte Sehstärke an. Beginnen wir mal mit Netzhautstrukturen, die bevorzugt Kanten in bestimmten Richtungen erkennen... wenn man in einem vernünftigen Abstand vor dem Fernseher sitzt, wird es wahrscheinlich eine optimale Auflösung geben, und alles höhere wäre vielleicht noch "Angeberfaktor" und "Verkaufsargument".

  • [FONT=&amp]Danke Selur für die Links und den Infos zu Win. 10. Hatte nur nicht die Zeit um genauer zu suchen. Demnach unterstützen Win. 8- und Win. 10 in 64-bit, bis zu 256 Kerne.
    Interessant wäre, wie viele Kerne Server 2016 supportiert. Etwa 512? Wie auch immer, für uns ist das aus Kostengründen vermutlich unbezahlbar.
    Es sind ja schon 2 Xeons mit 12 Kernen (3.0 GHz, je ca. 2500 €) sehr teuer. Das leisten sich wahrscheinlich nur engagierte Leute.
    Für professionelle Schnittsysteme, werden aber mindestens 2x 6 Kerne empfohlen.[/FONT]

    [FONT=&amp]Ich gehe von Videobearbeitung aus, nicht von Gamer-PC’s.[/FONT]

    [FONT=&amp]Ich bin trotzdem überrascht, dass Win. 8- und Win. 10 in 64-bit, 256 Kerne unterstützen.[/FONT]

    [FONT=&amp]Ja, da gebe ich dir recht, es sind eigentlich keine unkomprimierten Bildsignale. Für den Import eines Schnittprogramms, sollte man 185 MB/s bei H.265 wählen.
    Unkomprimiert wären das dann fast 1424 MB/s. Da würde es bei Festplatten mit 120- oder 150 MB/s Datenrate stark ruckeln. Ja, im RAID-Modus ist das zu schaffen.
    185 MB/s ist der Sendestandard, und mit guten 4:2:2- oder 4:4:4-Codecs ist eine sehr gute Bildqualität machbar.[/FONT]

    IRT Kolloquium Ultra-HD(UHD) und 4K[FONT=&amp] in 4 Teilen[/FONT]

    [FONT=&amp]Die Vorträge sind zwar von 2013, aber gelten zurzeit immer noch.[/FONT]

    [FONT=&amp]Naja, die Spezifikation für 4K lautet BT.2020, nicht 709 (35,9%). Die meisten 4K-Scheiben werden noch mit 709 erstellt.
    Ja, bei sehr kleinen Displays braucht man nicht unbedingt BT.2020, sehe ich auch so. Klar, 32K ist sicherlich auch ein „Verkaufsargument“.
    Leider deckt BT.2020 nur 75,8% des Farbraumes ab, den das menschliche Auge sieht. Geschätzt, in 20 Jahren haben wir vermutlich dann die 100% erreicht.
    Die Datenrate wird halt höher. Da müssen noch gute Codecs erfunden werden. [/FONT]

  • Zitat

    Die meisten 4K-Scheiben werden noch mit 709 erstellt.


    Man muss erst mal Material haben was BT.2020 aufzeichnet wurde.
    (ansonsten freuen sich nur Leute die fürs color grading zuständig sind)

    Das einzig gute an dem ganzen UHD-Geraffel ist für mich momentan, dass ich mir endlich einen 5K Monitor (HP Z27q 5k) holen konnte. :)

    Zitat

    Geschätzt, in 20 Jahren haben wir vermutlich dann die 100% erreicht.


    Denke nicht, dass es so lange dauert, aber wir werden sehen.

  • Ich hab hier zwar die c't 19/2016 vor mir liegen, den Artikel auf S. 110 ff. (4K: Kampf der Standards) hab ich aber noch nicht mal gelesen... Finde gerade die kurze Bemerkung:

    Zitat

    Knackige Farben
    ...

    Das Logo "Ultra HD Premium" fordert hier deutlich mehr, nämlich eine 90-prozentige Übereinstimmung mit dem DCI-P3-Farbraum.
    ...

    Die Spezifikation von Ultra HD sieht optional sogar den noch größeren Farbraum BT.2020 vor. Er deckt 76 Prozent des sichtbaren Farbspektrums ab, kann allerdings noch von keinem Display dargestellt werden.

  • Ja, die Darstellung scheint problematisch. Es werden aber schon viele Kameras ("Fotoapparate") mit 4K-Video angeboten. Die Frage ist, welchen Farbraum die nutzen. Weder bei meiner Sony noch bei der Panasonic ist diesbezüglich was einstellbar.

  • [FONT=&amp]Hallo Selur,[/FONT]

    [FONT=&amp]ja, das mit dem BT.2020-Material ist schon klar.
    Aber bei einer professionellen 4K-Scheibe für Kino-Präsentationen gehe ich davon aus, dass auch mit professionellen Geräten Filme erstellt werden.
    Diese sollten dann schon den BT.2020-Farbraum aufweisen.[/FONT]

    [FONT=&amp]Es wäre halt eine richtige 4K-Disc, mit den korrekten Spezifikationen. Dann bräuchten wir die 4K-Scheiben nur einmal zu kaufen.[/FONT]

    [FONT=&amp]Ich weiß, die Filmemacher sitzen da etwas in der Zwickmühle, denn die meiste Hardware arbeitet noch mit Rec.709.
    In der Übergangszeit macht es schon Sinn 709 zu verwenden. Wichtig ist ja erst einmal die höhere Bildschärfe. [/FONT]
    [FONT=&amp]Ich habe jetzt auch noch nicht die Möglichkeit mit meinem Equipment BT.2020 wiederzugeben. [/FONT]

    [FONT=&amp]Ist es überhaupt möglich, dass ein 4K-Hardware-Player oder 4K-Software-Player von BT.2020 auf 709 decodieren kann?[/FONT]

    [FONT=&amp]Der 4K-Beamer von JVC bietet richtiges 4K mit echtem BT.2020. Aber wer kauft sich einen Projektor für 35.000 Euro?[/FONT]
    [FONT=&amp]Dein 5K-HP ist günstig und löst 5K auf. Die 2 DisplayPort-Anschlüsse mit der 1.2-Version, haben leider nur eine Bandbreite von 17,28 GBit/s.
    Das ist für 4096 x 2160 Pixel in Ordnung. [/FONT]

    [FONT=&amp]Echtes 5K benötigt allerdings 25,92 Gbit/s. Hier wäre die Version 1.3 Pflicht gewesen. Gut, der HP und andere Marken sind dadurch vermutlich 100 € billiger.
    Maßgebend für uns sind aber die 4K. 5K- und 6K wird es wahrscheinlich nicht geben, es wurden bereits schon 8K-Geräte auf der IFA 2016 vorgestellt.
    2K wurde ja auch unterdrückt. [/FONT]

    [FONT=&amp]In 5K drehen Steven Spielberg und Peter Jackson ihre Filme.[/FONT]

    [FONT=&amp]Tvlogic:[/FONT] LUM-310A : 31” True DCI 4K Monitor mit Rec.2020

    [FONT=&amp]Huch, habe jetzt erst den Preis gelesen, 15.200 €. Ist aber kein PC-Monitor. Man kann den Video-Monitor aber trotzdem auch gut mit HDMI mit einer HDMI-PC-Grafikkarte einbinden. [/FONT]
    [FONT=&amp]Mit einer HDMI-Capture-Karte sowieso.
    Ich wollte den Link gleich wieder löschen, aber ich möchte damit zeigen, dass es bereits Geräte mit Rec.2020 gibt, wenn auch nur für professionelle Anwender.
    Klar, für uns sind solche Preisangebote nicht zu bezahlen.[/FONT]

    [FONT=&amp]Ich hoffe, dass es für unseren Geldbeutel in 2 bis 3 Jahren bezahlbare Geräte in dieser Qualitätsklasse gibt.[/FONT]

  • Pro Jo
    27. September 2016 um 00:37

    Meinst du nicht, dass das alles aktuell irgendwie albern ist? Solange das nicht in Consumerpreisregionen angekommen ist, ist das indiskutabel. Irgendwann in 3-6 Jahren wird es möglicherweise ein Advertising-Argument der Industrie werden, wie die kindische 3D-Schwemme, die auch vergangen ist. Wer kümmert sich bittschön ernsthaft um Farbräume in Filmen?

  • [FONT=&amp]Hallo Endoro,[/FONT]

    [FONT=&amp]dass das albern ist, würde ich nicht unbedingt bestätigen, denn 4K ist zurzeit die höchste Bildqualitätsstufe, die auch für Amateure angeboten wird.
    Ich bin sicher, dass noch höhere Qualitätsstufen folgen werden. Die Bildqualität bleibt sicherlich auch nicht 20 Jahre lang bei 4K stehen.
    Das ist eine ganz normale Entwicklung. Es gibt schon fast alles in 4K. Fernseher-, PC-Monitore-, 4K-Cams und Schnittsoftware mit 4K.
    Es fehlt nur noch gute Hardware für den Schnitt-PC. Dann wird es leider teuer.[/FONT]

    [FONT=&amp]Wenn man nicht soviel Geld ausgeben will, bleibt man eben bei 1080, ganz einfach.[/FONT]

    [FONT=&amp]Laut diversen Multimedia-Spezialisten bei den Fernsehsendern, soll es nur bis 4K gehen. Aber das kann man fast nicht glauben, denn es gibt ja bereits schon 8K-Flats.
    Ist etwas komisch, wenn eine Amateur-Cam 8K hat, und die meisten Sender strahlen dann „nur“ 4K aus. Ich meine jetzt im Zeitrahmen von ungefähr 10 Jahren.
    Die Kosten für die GEZ-Gebühren möchte ich einmal sehen. Das zahlen alles die Leute. [/FONT]

    Consumerpreisregionen:
    Ja, darum schrieb ich „[FONT=&amp]Ich hoffe, dass es für unseren Geldbeutel in 2 bis 3 Jahren bezahlbare Geräte in dieser Qualitätsklasse gibt[/FONT]“.
    Die Industrie wird immer für irgendetwas werben. Jeder kann selbst entscheiden, ob er sich eine 4K-Ausrüstung oder höher kaufen will oder nicht.
    Meine Geräte reichen auch nur bis 1080 und haben kein 3D-Bild. Hatten damals auch etliche Tausend Euros gekosten. Und jetzt schon wieder das Doppelte ausgeben.
    Da warte ich noch. Sicherlich ist auch Geldmache dabei, denn die Bosse der Herstellerfirmen wollen ja ihre 300.000 €-Autos fahren. Das wissen wir schon auch.
    Ich weiß auch nicht, ob es richtig ist z. Bsp. 20 Jahre bei 1080 stehen zu bleiben.

    3D:
    Wegdiskutieren kann man 3D nicht.
    Für 2D-Betrachter, die 50 Jahre lang auf einen 2D-Bilsschirm schauten, ist die räumliche Darstellung ungewohnt, darum lehnen die meisten Menschen diese Technik ab.
    Ich persönlich habe nichts gegen 3D, möchte aber damit auch nur ausgesuchte Sendungen sehen, wenn ich 3D hätte. Habe mir das bei meinem Händler angesehen.

    In Japan wird seit Jahren an einer Holo-Disc gearbeitet. Bei dieser Technik ist es möglich, z. Bsp. rundherum um ein Objekt zu sehen. Die Scheibe hat eine gelbe Oberfläche.
    In Europa wird diese Technik vermutlich nicht akzeptiert.

    [FONT=&amp]Farbräume:[/FONT]
    [FONT=&amp]Ja, das ist die andere Seite. Noch niemand regte sich über die Farbgebung bei 601 auf. Dieses BT.2020 ist auch nicht das Wahre. Ich will 100% Farbechtheit und nicht nur 75%.
    Bei solch hohen Kosten für 4K. Da hat man wieder Mist gebaut. [/FONT]

    [FONT=&amp]So sehe ich das, gut, jeder hat seine eigene Meinung.[/FONT]

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!