Gerucht: Intel Core i9-13900K krijgt 'extreme performance mode' met 350W-tdp

De Core i9-13900K zal in tegenstelling tot de 12900K niet genoeg hebben aan zijn standaard 'maximum turbo power' van ongeveer 250W. Dat meldt de Hongaarse hardwaresite Prohardver. Bij het unlocken van de powerlimits zou het verbruik van de i9 oplopen tot 350W.

Bij de twaalfde generatie Core-processors voerde Intel de termen 'base processor power' en 'maximum turbo power' in, als opvolger van de PL1- en PL2-limieten. Bij de overklokbare modellen met de K-suffix mag continu de mtp worden verbruikt. Bij de Core i9-12900K was die 241W, precies voldoende om de allcore-boost van 4,9GHz aan te kunnen houden. Volgens Prohardver zal dat bij de i9-13900K niet langer afdoende zijn, wat betekent dat de maximale allcore-boost alleen wordt gehaald bij het deactiveren van de standaard limieten.

Volgens eerdere geruchten krijgt de i9-13900K een allcore-turbo van 5,5GHz voor de P-cores. Daarnaast heeft de processor ook nog eens twee keer zoveel E-cores als de i9-12900K. Een fors hoger maximaal stroomverbruik lag dan ook in de lijn der verwachting. Bij een belasting die beperkt blijft tot enkele cores zou de processor overigens zelfs nog hoger kunnen boosten, tot 5,8GHz.

Tests van een qualification-sample van een Core i9-13900K met uitgeschakelde powerlimits. Om de allcore-turbo van 5,5GHz vast te houden, verbruikt de processor richting de 350W. Bron: @OneRaichu
Tests van een qualification-sample van een Core i9-13900K met uitgeschakelde powerlimits. Om de allcore-turbo van 5,5GHz vast te houden, verbruikt de processor bijna 350W. Bron: @OneRaichu

Sommige high-end moederborden in de nieuwe 700-serie zullen een ingebouwde modus krijgen om de powerlimit op te schroeven naar 350W, die Prohardver de 'extreme performance mode' noemt. In deze modus kan de processor zijn volledige allcore-turbo wél vasthouden, wat tot 15 procent betere prestaties in multithreaded-workloads mogelijk zou maken. Vanzelfsprekend is hiervoor wel goede koeling vereist.

De Raptor Lake-processors, zoals de codenaam van de dertiende generatie Core-cpu's luidt, blijven tevens compatibel met de bestaande 600-serie moederborden. Met een dergelijk moederbord zul je echter handmatig de limieten moeten deactiveren om de i9-13900K maximaal te laten presteren. De benodigde bios-optie heeft doorgaans een naam in de trant van 'Remove all limits'.

Intel is voornemens om de Raptor Lake-cpu's aan te kondigen op 28 september, gevolgd door een release in de week van 17 oktober. In onze AMD Ryzen 7000 vs. Intel Raptor Lake-preview gingen we dit weekend uitgebreid in op wat we van de nieuwe generaties processors mogen verwachten.

Door Tomas Hochstenbach

Redacteur

18-08-2022 • 12:30

307 Linkedin Whatsapp

Reacties (307)

307
303
105
2
0
138
Wijzig sortering
Ik ben enorm blij om te zien dat nagenoeg iedereen dezelfde reactie heeft, namelijk dat het compleet absurd is wat deze processors elke generatie maar weer meer mogen verbruiken dan de vorige generatie.

Het grootste deel van de wereld is (terecht) bezig met efficiëntieslagen en bezuinigingen, waarom gaan computeronderdelen precies de andere kant op? Eerst videokaarten die inmiddels op 400w+ zitten en nu CPUs met 350w max? Compleet zot.

Ongeacht de prijs of prestatie zal ik een dergelijke CPU (of GPU) in ieder geval nooit kopen, 65w is (voor een CPU) meer dan genoeg (wat de afgelopen jaren ook is bewezen). Apple laat in ieder geval zien wat er mogelijk is met een laag stroomverbruik.

[Reactie gewijzigd door adamvansanten op 18 augustus 2022 15:56]

Het gaat toch om energievebruik, niet om vermogen? Als je met pieken 450 Watt verbruikt, maar bij normaal gebruik 50 Watt, dan hoeft dat toch geen probleem te zijn?

Zet je computer maar eens achter een stroommeter. Dan kun je zien wanneer en hoelang hij welk vermogen gebruikt. Je kunt een uurtje computeren, en dan kijken hoeveel kWh je in totaal gebruikt hebt. Dat is hoeveel energie je hebt verbruikt. Dat deel je door het aantal uren, in dit geval 1, en je hebt je gemiddeld gebruikt vermogen over die tijd.

[Reactie gewijzigd door Cerberus_tm op 18 augustus 2022 16:16]

Het gaat toch om energievebruik, niet om vermogen? Als je met pieken 450 Watt verbruikt, maar bij normaal gebruik 50 Watt, dan hoeft dat toch geen probleem te zijn?
Maar je gebruikt niet met pieken 350W, onder normaal gebruik haal je dat nooit. Onder hoge belasting haal je dat wel continu. Waar mijn 5950X 16-core (!!!!) 120W continu verbruikt in cinebench multi-threaded zou een 13900K dus 350W continu verbruiken? Dat maakt nogal een groot verschil in energieverbruik, zeker voor mij.

[Reactie gewijzigd door langestefan op 18 augustus 2022 17:25]

Precies dit, als je de power hebt ga je m benutten.

Maar goed, de xx900K zitten al meerdere generaties in het hoekje 'enthusiast' waar je driedubbel betaalt voor luttele procenten. Intel schuift steeds verder op naar de idioterie en dat hebben we eerder gezien: dit is de FX-9590 all over again maar nu elke generatie.

Niet echt iets om trots op te zijn imho. Het is een zwaktebod. Meer niet. Fools & money will be parted. Of je vindt het gewoon leuk om een hogere stroomrekening te hebben... ieder zijn ding.

Efficientie zal altijd het toverwoord blijven en het is duidelijk dat je daarvoor niet bij top end Intel-K CPUs moet zijn.

[Reactie gewijzigd door Vayra op 18 augustus 2022 17:08]

Alleen was de FX-9590 ook zo langzaam dat het niet kon concurreren met intel. Intel kan wel gewoon concurreren met AMD.
Niet zonder veel meer energie te verbruiken voor een full sustained load. Er zit 100W verschil tussen.

[Reactie gewijzigd door Vayra op 19 augustus 2022 15:50]

Want jij draait de hele dag cinebench en ook nog multithreaded? Mijn 3090 verbruikt het grootste deel van de tijd een watt of 30. Heb nu Blender open staan voor 3d modelling, bij beweging even pieken van 70 watt, daarna zakt ie weer terug naar 30.

Mijn 3900x verbruikt verhoudingsgewijs(tov de max) in die situatie wat meer, 50watt, maar dan nog. Bij elkaar is dat een verbruik wat sommige tv kastjes/modems bijna verbruiken (en dat soms in standby).

Ja, als je een stevige game speelt die niet gelimiteerd wordt door de v-sync/framrate(in mijn geval 120 of 240Hz afhankelijk van het scherm) dán kan ie flink verbruiken, maar voor de rest slaan de fans amper aan.

[Reactie gewijzigd door MN-Power op 18 augustus 2022 17:04]

Want jij draait de hele dag cinebench en ook nog multithreaded? Mijn 3090 verbruikt het grootste deel van de tijd een watt of 30. Heb nu Blender open staan voor 3d modelling, bij beweging even pieken van 70 watt, daarna zakt ie weer terug naar 30.
Ik gebruik mijn PC veel voor AI training waarbij zowel de CPU als de GPU op 100% draaien. Dat is qua CPU belasting vergelijkbaar met cinebench. Soms draait zo'n belasting 3 dagen lang.
Mijn 3900x verbruikt verhoudingsgewijs(tov de max) in die situatie wat meer, 50watt, maar dan nog. Bij elkaar is dat een verbruik wat sommige tv kastjes/modems bijna verbruiken (en dat soms in standby).
Ja prima toch, ik snap je punt niet? Het is niet zo gek dat de 3900x minder verbruikt dan de i9-13900K of de 5950x.
[...]


Ik gebruik mijn PC veel voor AI training waarbij zowel de CPU als de GPU op 100% draaien. Dat is qua CPU belasting vergelijkbaar met cinebench. Soms draait zo'n belasting 3 dagen lang.
Dan juist is het maximale verbruik niet echt van belang. Je wil dat ie een bepaalde hoeveelheid werk afkrijgt en dat dat niet teveel kWh's kost. Als ie dat in 1 dag kan doen ipv 3 met een vermogen wat 3 keer zo hoog ligt, maar een gelijk aantal kWh op de meter is er toch weinig aan de hand? Ja je kán meer werk doen in 3 dagen en dus nóg meer verbruiken, maar dat ligt toch echt aan jezelf.

Maximaal verbruik is niet waar je naar moet kijken, maar hoe efficiënt er met dat vermogen omgegaan wordt.
Ja prima toch, ik snap je punt niet? Het is niet zo gek dat de 3900x minder verbruikt dan de i9-13900K of de 5950x.
Ik denk dat een 13900K amper uit idle komt(net als mijn 3090 eigenlijk) voor dat werk, dus dat maakt wel degelijk uit. Gaat er om dat veel gebruikers het overgrote deel van de tijd niet eens in de buurt komen van de max(gemiddeld). Jij toevallig wel, maar zoals gezegd wil jij dat je waar krijgt voor je watts, niet zo weinig mogelijk watts.

[Reactie gewijzigd door MN-Power op 18 augustus 2022 17:44]

Maximaal verbruik is niet waar je naar moet kijken, maar hoe efficiënt er met dat vermogen omgegaan wordt.
Precies, en juist daarom is dit zo'n vreselijk slecht idee. Ik heb een zware OC geprobeerd op mijn 5950X via PBO, ik kreeg welgeteld 15% meer punten in cinebench maar het vermogen steeg van 120W naar 250W.

Laten we nu eens kijken naar de i9 12900K: https://www.hardwaretimes...-5-drop-w-75w-less-power/. Precies hetzelfde verhaal, de schaling is totaal waardeloos. Dus ja, het maximale verbruik is wel zeker van belang.
Een zware OC wordt het inderdaad ook niet altijd beter van. Mijn 3900x is undervolted(offset -0.1v als ik het goed heb) en dan loopt ie beter omdat ie koeler blijft en dus langduriger hogere clocks haalt. ;) En aan de matige koeling zal het niet liggen, ik heb een Dark Rock Pro 4 met 3 12cm outtake fans, full power wordt ie 65-70 graden uiterste max.

Volgens mij begrijpen we elkaar verkeerd trouwens, ik zeg alleen dat als je voor 3x het verbruik ook 3 keer de rekenkracht krijgt, ik dat prima vind(en dus dat max. wattage an sich niks zegt). Een paar procent meer voor 75 watt voldoet daar dus duidelijk niet aan.

Teminste ik neem aan dat jij er geen probleem mee zou hebben als je AI training in 1 dag klaar is ipv 3 en dat je daar net zoveel stroom voor kwijt bent? Dat dat niet voor een 13900K geldt; Zou heel goed kunnen. Het gaat alleen om het principe dat max verbruik niks zegt over het totale verbruik, juist op de manier zoals jij je systeem gebruikt.

[Reactie gewijzigd door MN-Power op 18 augustus 2022 18:07]

Het was ook meer om aan te geven dat een 350W GPU(of processor) in elk geval een deel van de tijd nog relatief zuinig kan zijn. 1/20 van de max is goed haalbaar bij een 3090. In mijn geval zal het verbruik van het hele systeem het grootste deel van de tijd zelfs lager zijn dan van een ingeschakelde Ziggo Mediabox XL: https://nl.hardware.info/...euro-aan-energie-per-jaar.

Het is gewoon fijn om de capaciteit wel achter de hand te hebben als je het nodig hebt. Ik vind het onmisbaar bij simracing in elk geval, maar ook bij andere games natuurlijk.
Ik zie het probleem niet helemaal. Beetje appels met peren vergelijken. Iedereen en ook chipfabrikanten zijn bezig met zuinig doen, maar waarom mag er niet een topmodel tussen zitten die wel alles uit de kast trekt.

Even heel pragmatisch bekeken heeft chip voltage nodig om stabiel te lopen op een bepaalde snelheid. Hoe meer voltage, hoe hoger het wattage, hoe hoger de temperatuur. Hoe hoger de temperatuur hoe meer voltage er nodig is om de boel koel te houden. De lijn van voltage nodig per Mhz is niet lineair maar exponentiël. Het is dus logisch dat als je het meeste uit zo'n chip gaat trekken, de verhouding van energie per frame gaan veranderen.
Verder wordt er elke generatie, keer op keer, de boel zuiniger gemaakt per frame.

Wil je liever geen Audi R8 kopen omdat je toch geen behoefte hebt aan 320km per uur rijden en een verbruik van 1:5, dan koop je toch liever een Peugeot 108 die makkelijk een verbruik van 1:30 haalt. ja tuurlijk is hij niet zo snel, maar dat is ook zo bij de m2 chip van Apple.
Begrijp me niet verkeerd, het is een topchip die super efficiënt is, maar wat verwacht je van een chip dat op 3.50 GHz loopt. Laat die chip eens op 5,9ghz lopen en kijk dan naar het verbruik.
Kijk even naar de Intel i3-1210U, 9W base power en met turbo maximaal 29W @4,4Ghz. Is weer een beetje appels met intels vergelijken natuurlijk, maar dit laat wel zien dat ze wel degelijk bezig zijn met energie prestaties.
volgensmij kun je dan beter voor een xeon gaan als je die performance nodig hebt die doet meer performance met minder wat door de extra aanwezige cores op laag voltage,
Beetje offtopic, maar ligt heel erg aan je usercase. Xeon is vooral veel cores en laag voltage zoals jij zegt, maar de single core performance is daar weer vrij slecht van.
De meeste programma's profiteren toch wel heel erg van die singlecore performance, waar Xeon nu eigenlijk voor een usercase heeft voor serverapplicaties, bijv het hosten van 6 virtual client op 1 chip.
ehh het topmodel is een high core count ,

dus bedoeling is neem ik aan dat je applicaties draait die ook daadwerkelijk die cores kunnen gebruiken, dus dan kun je beter een 48 core energie zuinige Cpu nemen dan eentje die even een 24core burst kan doen tegen enorme stroom kosten.

als je applicatie geen 24 cores kan heb je ook niks aan deze turbo boost, en als je applicatie het wel kan is het meestal niet nodig voor 10 sec maar ben je dingen aan het doen die langer draaien dus is een xeon interesanter , Xeon is niet alleen server het is ook workstation.
Probleem is dat het niet één type is maar een trend lijkt te zijn. Om bij de auto-vergelijking te blijven, ten eerst heb je praktisch niks aan het feit dat een bepaalde auto 320 kmph kan, want dat kun je zelfs ‘s nachts nergens rijden. Maar prima, als jij dat wil, kun je zo’n auto kopen. Hoger gewicht, benzineverbruik, etc van een paar auto’s maakt niet zo veel verschil. Alleen… als alle nieuwe Audi’s een onnodig zware motor krijgen, omdat dat de nieuwe standaard motor van Audi wordt, is dat gewoon verspilling van energie door duizenden boodschappen-autootjes die overgedimensioneerd zijn.
Het gaat er niet om dat er geen use case voor extreme processors is (en die mogen ook best bestaan), mijn punt was dat de tendens is dat (over een groot deel van het productaanbod) CPUs/GPUs steeds meer gaan verbruiken (in plaats van minder, wat een aantal jaar geleden het geval was). In mijn ogen is dit een slecht ontwikkeling.
Hieraan kan je toch ook zien dat het allemaal gelul is.. snap toch echt niet dat hoe veel voorbeelden je mensen ook kan geven ze het nooit gaan inzien..
Minister van stikstof rijd ook in een dikke bmw 7 serie 3 liter v6...
Wat mij betreft verbied de EU import voor processors met een vermogen >150W. Met eventuele vergunbare uitzonderingen als je kan aantonen dat je het echt nodig hebt. Het liefst zou ik zelfs 50W als maximum zetten over een paar jaar. Dan kunnen AMD en Intel hun productlijn daarop aanpassen.
Beetje raar om het te verbieden. Echter zou een disclaimer of een "zuinigheidssticker" (zoals je ook op keuken apparatuur, tv's en andere media dingen zo ziet) wellicht wel een idee zijn.
Dan zien consumenten ook meteen dat de ene processor (i3, Ryzen 3, etc) een "A" label krijgen en dat deze gewoon simpelweg een G krijgt oid. Is het meteen duidelijk voor velen.

Alhoewel dit natuurlijk al een processor is en wordt die gewoon niet voor de 'mainstream' gaming markt is. Veel te veel overkill.
Het verbieden is letterlijk wat in elke andere markt ook gebeurd. Een paar jaar geleden werd er moord en brand geschreeuwd over de stofzuigers, die een cap kregen. Inmiddels is dat er door en zijn moderne stofzuigers een stuk zuiniger en toch net zo efficiënt. Een verbod kan dus prima werken.
Zijn ze juist efficiënter geworden toch? ;)

Ik ben ook voor, het is gewoon een duw in de goede richting. Dat van die stofzuigers is een goed voorbeeld. Ik weet uit ervaring dat zo'n oud monster van soms wel 2200 watt (!) niet minder presteert dan een hedendaagse van 900 watt. Daar is flink geinnoveerd wat ik alleen maar kan toejuichen.
Aan de andere kan, hoeveel uur per jaar staat een stofzuiger nou helemaal aan? Tenzij je een beetje in de "Barbie"-achtife milieux verkeert, maak je niet elke dag je huis schoon. En wat is het gemiddeld verbruik over een uur? Dat zal vast veel minder zijn dan het theoretische piekvermogen. Dus ik weet niet of een stofzuiger nou echt aantikt.

Wat wel aantikt is elke dag douchen, de verwarming boven de 18 graden, meer dan 1x per tien jaar vliegen, veel electronica kopen.
Nou mijn Dyson v8 draait hier dagelijks 20-30 min :) iets met een hond en heel veel haar....
Geen idee hoeveel watts die draait, maar de accu moet wel opgeladen worden :)
A okee, dat is wel veel inderdaad. Maar als hij een accu heeft, zal hij heel erg veel minder energie verbruiken dan een conventionele stofzuiger. Dus daar zou ik me echt geen zorgen over maken. Ik denk dat je eerder in de categorie ventilator zit (100 Watt), dan ouderwetse stofzuiger (1000–2000 Watt).
ik ga denk toch maar is een meter achter de oplader hangen, ben toch benieuwd hoeveel deze nou daadwerkelijk trekt :D . Maar idd, het is een accu die geladen moet worden en niet zo oude stofzuiger die 1000 watt trekt.
Zelfs mijn ruim 20 jaar oude 1.600W stofzuiger werkt opvallend goed op 900W.
Goed punt, maar dat betekend in deze zin dat jij dan een stofzuiger van 5000 euro koopt ipv een stofzuiger van 100 euro.
Probleem met dit soort apparatuur is en was dat de zuigkracht tussen 2 stofzuiger modellen van 100 euro enorm kon verschillen. Sterker nog, hoe duurder de stofzuiger, hoe zuiniger die werd met relatief gelijke zuigkracht tegenover minder wattage.
Ik heb eens een artikel hierover gelezen en na onderzoek bleek dat dat enorm tegenviel. Duurdere stofzuigers hadden vaak een flink hogere wattage maar de zuigkracht was maar iets van 10% beter.

Nu alles aan banden is gelegd blijkt dat wel zelfs met de minder krachtige motoren die wel tot 60% zuinigere zijn dat de zuigkracht maar maximaal 20% is afgenomen. Stofzuigers zijn wel beter gaan zuigen door verbeterde ontwerpen van de zuigmonden ondanks het verlies van zuigkracht.

Dit is eigenlijk ook wat we willen bij processoren. We willen zeker wel dat ze sneller worden maar 10% snelheidswinst moet natuurlijk niet zorgen voor een 2 keer hoger verbruik en meer warmte ontwikkeling.
Nee een verbod op x verbruik is niet de oplossing.... een efficiëntie eis is wel een oplossing.

i really dont care of mn stofzuiger een 1500W of 1000W motor heeft zolang het maar in verhouding staat / betere performance per watt geeft
We hebben het over hetzelfde, jouw bewoording is beter.
Ze gaan efficienter om met stroom, maar je bent wel langer aan het zuigen en je moet wel vaker de stofzak legen. Niet dat dat per sé erg is, maar net zo efficient zou ik ze niet noemen.

Bij stofzuigers liep het eea wel uit de hand en innovatie was ver te zoeken. Maar ik vraag me af of we nu met stofzuigrobots beter af zijn. Die verbruiken een stuk minder energie, maar rijden wel vaker en meer rond.
Dus per saldo vraag ik me af of we er op vooruit gaan.
Wie heeft het over robots? Huidige stofzuigers verbruiken ruim 1000 watt minder en zuigen net zo goed.

Bovendien: als je de zak vaker moet legen zuigt de stofzuiger dus beter.

[Reactie gewijzigd door cmegens op 18 augustus 2022 23:33]

Ja, maar de gewone stofzuigers worden nu steeds vaker vervangen door robot stofzuigers a la Roombla (net gekocht door Amazon). En die zijn dus weer onzuiger.

En nee, stofzuigers met 1000W minder zuigen niet net zo goed, tenzij je een lege zak erin hebt zitten en de filters / stofzak niet te precies zijn. HEPA15 levert een stuk meer weerstand op als HEPA13 (of minder) en dat merk een stuk beter als de stofzuiger minder vermogen heeft.

Een stofzuiger doet niks meer of minder als lucht (met stof en vuil) verplaatsen van A naar B. In feite heb je daar maar heel weinig vermogen voor nodig. Totdat je zaken als stofzakken, filters (voor de motor, achter de motor) gaat introduceren. Meer stof in de zak = meer weerstand. Meer stof in de filters = meer weerstand (ik ken niemand die filters vervangt conform advies fabrikant). Betere filters (HEPA15 bv) = meer weerstand. En om de weerstand te overwinnen .. heb je vermogen nodig.

[Reactie gewijzigd door Klaus_1250 op 18 augustus 2022 17:31]

Nee hoor, stofzuigers worden niet vervangen door robot stofzuigers. Robot stofzuigers zijn een prima aanvulling, maar je zult altijd een stofzuiger nodig blijven houden. Robot stofzuiger zuigen bijvoorbeeld niet de bovenkant van je plinten en zijn ook notoir slecht in het stofzuigen van trappen.

Je andere punt: hedendaagse stofzuigers lossen dat anders op. Wat je vooral ziet is een verschuiving van de markt naar draadloze stofzuigers. Deze werken, op een paar uitzonderingen na, allemaal met zowel zuigkracht als draaiende borstels. De borstels zorgen er dus voor dat de stofzuiger net zo goed zijn werk doet als een ouderwetse van 2200w.
Nah, onzin. Ik heb een van die oude 2000+watt Miele stofzuigers ingeruild voor een een moderne 750 watt AEG en ik kan je vertellen, het gaat alleen maar sneller. Bijkomend voordeel is dat je niet een enorme hitte uitlaad hebt die je hele huis verwarmt omdat mensen 15 jaar geleden alleen maar naar het vormogen van de motor keken en geen benul hadden van efficiëntie. Met als resultaat dat je alleen nog maar nieuwe stofzuigers kon krijgen die gigantisch veel warmte produceerden om maar dat "Nu MeT eEn KrAcHtIgE 2500 watt MoToR" stikkertje te kunnen plakken.

De gedachte is zelfs zo hardnekkig dat ik de vriendin van mijn pa niet heb kunnen uitleggen dat het verbod werkelijk geen effect ging hebben op de totale zuigkracht. Helaas, die heeft net voor het verbod nog een of ander idioot 3kw model op de kop getikt.

Het is een hardnekkig vooroordeel waar een deel van de tweakers blijkbaar ook nog mee kampt...

[Reactie gewijzigd door Thekilldevilhil op 18 augustus 2022 16:31]

Wat denk jij dat efficientie is/betekent? Hoe kom je erbij dat je langer aan het zuigen bent en daarbij meer opzuigt/de zak vaker moet legen/vervangen?

En wie heeft het hier over robotstofzuigers, dat is appels met peren vergelijken.
Er is een ellenlange rechtzaak geweest, aangespannen door Dyson? Omdat de EU labels niet klopte, omdat ze de zuigkracht alleen meette met een lege stofzuigerzak? En dat was volgens Dyson niet reeel en respresentatief? En dat fabrikanten als Siemens sensoren bleken te gebruiken die het vermogen opvoerden boven de 900W naarmate de zak voller was om verlies aan zuigkracht te compenseren?

https://www.rtlnieuws.nl/...on-rechtszaak-stofzuigers
https://www.telegraph.co....ting-like-Volkswagen.html

[Reactie gewijzigd door Klaus_1250 op 18 augustus 2022 17:21]

Een stofzuiger van 3000 watt mag gewoon hoor,
Industriële stofzuigers hebben wel meer vermogen.
Dus een verbod geldt alleen voor inhuis gebruik,
Mijn tuin stofzuiger heeft ook veel meer vermogen
In volendam gaan ze er inderdaad mee door de tuin!
Voor de blaadjes op je terras en kunstgras.
Ik heb er zelf geen (meer een bezem tyoe), maar er zijn echt mensen die hun terras en kunstgras zuigen ja.
Still bladblazer / zuiger
Ik weet niet eens of het zo heel raar is om het te verbieden. Voor verbrandingsmotoren in auto's en motorfietsen wordt dit ook gedaan. De Euro5 emissie standaard dwingt gewoon dat de verbrandingsmotor op een bepaalde manier presteert. Even los van Dieselgate heeft dat echt wel een positief effect gehad op de ontwikkeling van de motoren. (ja er was voor 1 jaar een dip in aantal pk's, maar dat was later wel weer opgepakt).

Ditzelfde zou voor consumenten CPU's/GPU's ook kunnen.
Je kan gewoon een Bugatti Chiron met 8 liter W16 in Nederland kopen hoor. Emissiestandaarden gaan niet over de hoeveelheid vermogen van een auto, of over hoeveel benzine ze mogen gebruiken.
De grote van de motor is minder relevant, het gaat voor zover ik begrijp over de uitstoot. Als jij ervoor zorgt dat jou motor de brandstof efficient verbrand dan is er geen probleem.
Als je een CPU kon kopen die roet en andere zooi in de atmosfeer pompt, dan zou je vergelijking wellicht opgaan.
Zolang al onze stroom niet 100% groen is, is dat dus ook zo.

Het gaat niet om huidig gebruik maar de trend die is ingezet naar grotere vermogens. Van 80W, naar 120W, 180W en straks dus 350W.

Wat als het over 10 jaar normaal is dat een cpu 1000W verbruikt? Grenzen kun je maar beter vroeg trekken, anders eindig je weer in eindeloze juridische taferelen.

Misschien kun je er een belasting op zetten. Elke CPU die meer dan 200W verbruikt belasten en dan meteen ook multi socket belasten.

Brengt geld op en voorkomt excessen
Er zit al belasting op de verbruikte energie in de vorm van jawel; energiebelasting. Met andere woorden er is al een financiële prikkel om geen cpu van 1000W te kiezen.
Op auto's zit ook een aankoopbelasting.

Dat kan dus ook heel goed op elektronica
Maar die is niet selectief: een elektrische kachel van 1000w betaal je hetzelfde voor als een cpu die 1000w verstookt. Voor een kachel van 1000w heb je geen alternatief (tenzij we naar warmtepompen e.d. gaan kijken die 1KW energie omzetten naar 3-4KW aan warmte). Een CPU daarentegen wel. Dus kun je sturen door direct belasting te gaan heffen op CPUs met idiote vermogens. Het is al lang zo in CPU land dat 2x zoveel stroom erdoorheen jassen zeker geen 2x de performance opleveren.
Maar die is niet selectief: een elektrische kachel van 1000w betaal je hetzelfde voor als een cpu die 1000w verstookt. Voor een kachel van 1000w heb je geen alternatief (tenzij we naar warmtepompen e.d. gaan kijken die 1KW energie omzetten naar 3-4KW aan warmte). Een CPU daarentegen wel. Dus kun je sturen door direct belasting te gaan heffen op CPUs met idiote vermogens. Het is al lang zo in CPU land dat 2x zoveel stroom erdoorheen jassen zeker geen 2x de performance opleveren.
Je haalt hier zelf direct een streep door je eigen argumentatie. Er zijn alternatieven voor die 1000W kachel.... Zoals de door jou genoemde warmtepomp (lucht/lucht, lucht/water, enz). En er is nog een alternatief; minder stoken....

Verder baseer je je mening op een misvatting. De nieuwste generatie is in de praktijk namelijk zeer zeker veel zuiniger in het uitvoeren van taken. Zo verbruikt een 12900KF (241W tdp) 45W in Anno 1800 terwijl een 11900K nog op 100W zat.

Verder stookt zo'n heel systeem alsnog bijna 400W omdat er ook nog een GPU in zit.
Die warmtepomp krijg je om die reden subsidie op. Die kachel niet.
Zoals @sdk1985 aangeeft, dat wordt dus elders geregeld.

Stel, er is een limiet dat een cpu max 350 W mag verbruiken. Wat weerhoud mij er dan van om 2 van die cpu's te gaan gebruiken? Of meerdere pc's naast elkaar? Exact, niets, dus het zou niks opschieten. Wat dat betreft is vergelijking met een auto dus krom (dat zijn dit soort vergelijkingen meestal wel), want ik schiet er niet veel mee op om met 2 auto's tegelijk te gaan rijden.

Multisocket gaan belasten is dan ook lastig, want wat classificeert als dusdanig? Telt een blade rack dan ook? 2 Computers die samen computing over het netwerk doen mag dan wel? Maar als de 2 cpu's in 1 kast zitten, dan kost dat extra? Kortom, behoorlijk wat haken en ogen, en wat mij betreft niet realistisch om te handhaven.
Geen limiet, maar gewoon een belasting via schalen: 1-50W = 1euro, 50 tot 100W=2 euro, 100 tot 150w = 10 euro. Meer dan 150w = 100 euro belasting. Als je het echt nodig hebt kun je die 100 euro ook wel missen maar de reguliere gebruikers kijken tegen fors hogere prijzen voor CPUs die kunstmatig opgefokt worden.
Waarom zou je vermogen belasten, en niet het daadwerkelijk energieverbruik? Dan belast je heel precies datgene wat je wilt beperken, energieverbruik. En dat doen we ook al, met de belasting op electriciteit per kWh. Die is net verlaagd vanwege de energiecrisis, maar die kan zo hoog als je haar wilt hebben.

Als een processor met hoog piekvermogen per dag maar 10 seconden op dat vermogen draait, maakt het niet uit. En als hij door zijn hoge piekvermogen een taak 2x zo snel uitvoert met 2x zo hoog vermogen, kom je gelijk uit, dus verbruikt hij helemaal niet meer energie dan een andere processor.

Focussen op piekvermogen is alleen zinnig als het om een apparaat gaat dat daadwerkelijk continu zo veel stroom verbruikt, en dat niet sneller klaar is dan een apparaat met minder vermogen. Bij stofzuigers en auto's geldt dat wel enigszins. Maar voor processors geldt dat echt absoluut niet, ook niet een substantieel beetje.

[Reactie gewijzigd door Cerberus_tm op 19 augustus 2022 07:45]

Ja maar je analogie is dus niet correct.
De W16 zal nog steeds wellicht elke 4 KM 1 liter zuipen. Alleen is de uitstoot nog steeds binnen de normen.

De processor zal een hoop stroom verbruiken, maar niets "extra's" uitstoten dan een i3. Tenzij je terug gaat beredeneren naar hoeveel een electriciteits centrale uitstoot, etc. Maar wat als je zonnepanelen hebt, etc etc.
Mijn analogie is zeker correct, je moet de vergelijking wel eerlijk houden natuurlijk.

Een Chiron van 2022 is een stuk zuiniger dan een Veyron uit 2005. En toch is de performance beter geworden. Dat moet hetzelfde gebeuren met CPU's, dat een toekomstige I9 2090k geen 350w tdp meer heeft, maar wel betere prestaties levert. Dat is vooruitgang.
Een Pentium Extreme Edition 955 met 130W (base power) uit 2005 is toch ook veeeeeel minder zuinig dan een i9 12900 met 65W (base power)? En kijk eens hoe veel sneller die i9 is met minder wattage.

Maar waarom maakt dat het bestaansrecht van deze i9 met 350W meteen onterecht? Het is niet dat elke simpele ziel deze aan zal schaffen en waarschijnlijk zal Intel deze ook nog eens gelimiteerd verkopen gok ik zo.

Het is een beetje hetzelfde als zeggen dat de Chiron uit 2022 zuiniger is dan de Ferrari FXX K en dus de laatste geen bestaansrecht meer heeft. Dat klopt niet m'n jong.

Ik blijf bij m'n standpunt met dat de consument wel mogelijk geïnformeerd dient te worden via zuinigheidslabels. Maar omdat er 1 extreme processor uit wordt gebracht voor een zeer selectieve userbase, vind ik niet dat er een verbod op moet plaatsvinden.
Hoe de verbrandingsmotor in je voorbeeld presteert is niet relevant. Wel hoe zuinig deze is.
Je kunt nu nog steeds auto's halen waarbij je de andere kant van de stad niet haalt als je je gas intrapt.
Meer cores = hoger piekverbruik maar zegt niets over de efficiëntie van een cpu.

Snellere cpu’s zullen taken snellen afronden en dus sneller weer op idle staan waardoor hun gemiddelde verbruik gelijk of lager is dan zijn tegenhanger met meer cores.

Ook heb je bog/little cpu’s met efficiëntie cores. Die hebben hoge piekvermogens maar zijn tegelijk zuinig bij lage belasting.

Een A label voor een 50watt cpu en een B label voor een 100watt cpu kan in praktijkverbruik compleet anders uitdraaien.

Een energie-label voor een cpu is gewoon nutteloos omdat het niets zegt over efficientie, het praktijkverbruik en al helemaal niets over het totale verbruik van uw pc.

Intel wil gewoon de overclockers de mogelijkheid geven om er alles uit te persen. Hoeveel mensen gaan de bios tweaken, mega koeling en voeding steken? Dat aandeel is gewoon verwaarloosbaar.

Misschien is het aan Tweakers om best buys ook een energiescore mee te geven op een realistisch testscenario (gaming, office, multimedia..).
Maar daarom heb je ook de 'praktijkverbruik metingen' van de uitstoot en verbruik van auto's waar op de belastingen ook weer aangepast worden.
Kijk, je kan een auto verbruik meten wanneer die constant een berg op rijdt, op een circuit scheurt of een sleurhut voorttrekt, maar dat zegt niets over het alletijds praktijkverbruik.

Zo'n 'praktijkverbruik' test voor CPU's zou je best internationaal (of gewoon binnen EU) kunnen neerzetten en daar een zuinigheidslabeltje uit plempen en dan elke 2 jaar de basislijn opschuiven naar beneden.
De EU heeft al zo'n zaken verboden, zoals bijvoorbeeld een maximum wattage op stofzuigers. Of een verplichte auto-off functie op koffietoestellen. Het gaat dan over toestellen die zowat elk huishouden heeft met een hoog piekverbruik.

Op high-end CPU's/grafische kaarten zal dat niet snel komen neem ik aan, omdat het maar om een klein deel van de bevolking gaat. Maar op termijn niet uit te sluiten want 40% minder CO2-uitstoot tegen 2030 en klimaatneutraal zijn tegen 2050 zal ingrijpende maatregelen vergen.
Beetje raar om het te verbieden.
Nee hoor. Vaardig (EU-)richtlijnen uit om dit (stapsgewijs) te beteugelen, als de industrie zelf niet de aanzet geeft tot een beperking in het gebruik of efficiëntere omgang met energie of grondstoffen.
Glijdende schaal.
Alles maar verbieden omdat het je niet zint. Gevaarlijk precedent zet je dan neer. Voornamelijk over een product dat zeer geringe en selectieve use-base zal hebben en dus nog niet eens een druppel op een gloeiende schaal zal zijn qua energieverbruik.

Als je al "te hoog wattage verbruik" processoren gaat verbieden, op wat voor gronden zullen ze dan andere componenten ook kunnen gaan verbieden? Hoe exclusief en duur deze componenten ook wel niet zullen zijn?
Het is gewoon té makkelijk om alles aan regulering weg te zetten als betutteling. Geef de mens een vinger en hij pakt de hele hand. Dat zit gewoon in de aard van het beestje.

Deze discussie ging niet zo heel lang geleden ook al toen Nvidia de nieuwe 40xx serie videokaarten aankondigde en daarbij wat globale specs vrijgaf. Daaruit bleek dat het stroomverbruik onevenredig veel hoger opliep t.o.v. de performance winst, t.o.v. de voorgangers. Dat kan gewoon echt niet meer.
Je hebt het nu wel over een processor voor een zeer kleine groep gebruikers met een hoop geld. De GFX kaart discussie daarentegen snap ik, er zou inderdaad een "rem" moeten komen om in dezelfde naam schema (1070/2070/3070/4070) exponentieel meer te stijgen in wattage dan de voorganger.

Daarom zal een goede "zuinigheid label" naar mijn mening een stuk beter zijn dan algeheel verbod. Naast t feit dat ik een verbod sowieso haat. Overheden moeten zich naar mijn mening daar niet mee bemoeien. Reguleren mag, maar met minimale impact en bemoeienis.

Pas deze om de 2 jaar aan, baseer de label op een "praktijk verbruik test" (2 uur gamen, of een stress test tot maximum haalbare, 10 uur excel, 10 uur 4K film, 2 uur opstart/opwarm zodat de gekoppelde koeling niet valse waardes en peak belastingen laat misbruiken, maar een suggestie).
Elke processor, GPU en APU moet daar aan mee doen voordat die verkocht mag worden. Labels worden actief bijgehouden op een website waar elke consument terecht moet kunnen komen om misbruik te voorkomen die website schaalt de processoren ook naar beneden elke 2 jaar.

Is mijn idee en mening he. Betutteling, bestraffing en algeheel verbod om arbitraire redenen zien we al veel te veel, laat deze sector dan met rust.
Een efficientielabel zou inderdaad kunnen werken. Een consortium van fabrikanten / stakeholders zou dan nodig zijn om categorieen en bijbehorende labels te definiëren.

Al ben ik wel een beetje huiverig dat we dezelfde perikelen krijgen als met de huidige labels, dat er nieuwe labels komen en de oude tegelijkertijd ook nog gebruikt mogen worden (sept 2021-maart 2023). Zo kun je nu led lampen kopen met rating A++/A+ rating wat eigenlijk ondertussen dus al wordt aangemerkt als D/E/F/G rating.
Gezien t feit dat nieuwe generaties van processoren en grafische kaarten zo ongelofelijk snel verschijnen, zou je die 'lijn' elke 2 jaar wel kunnen verlagen (of verhogen, net hoe je er tegen aan kijkt) gok ik zo.
Veel componenten zullen na 2 jaar niet enorm veel meer verkocht worden omdat de prestaties dan gigantisch achterblijven.

Aan de andere kant, wellicht gaan winkels dan juist misbruik maken... "Kijk deze i7 4770K, deze heeft label A terwijl de i5-11500K een B label heeft, die i7 die wij nog te koop hebben is véél zuiniger!!!" (maar een stom voorbeeldje dan)
Precies. Ik begrijp dat oude voorraad lastig is voor winkeliers, maar misbruik, of in ieder geval misleidende communicatie, lijkt me een gegeven. Als het kan gaat iemand het (helaas) doen.

Verder hoeft ‘de lijn’ niet enkel soor fabrikanten gezet te worden. Overheden en andere partijen kunnen dat prima meebeslissen. Jammer voor Intel met zijn energieslurpend productaanbod.
Nouja Intel heeft ook prima processoren die onwijs zuinig zijn. Zeker sinds Alder lake (12e gen) met hun E-cores zie je al de stappen die ze hebben gemaakt Hun over-the-top range daarentegen blijft inderdaad erg hoog zitten.
Zuinigheids Labels zal daarbij een eerste stap kunnen zijn. Maar wellicht moet er inderdaad nog iets gedaan worden aan mogelijk misbruik (algemene website waar iedereen de processor naam kan opzoeken en meteen de "huidige label" kan inzien?). Maar verbieden vind ik écht te ver gaan. De prijzen zijn toch al niet goedkoop, dus een gemiddelde gamer/consument zal toch niet voor hun top-lijn aan i9's gaan en daar mee het electriciteitsnetwerk van de buurt platleggen.

Dat doen e-auto eigenaren al genoeg :P
hoog vermogen hoeft niet te betekenen dat het energieverspilling is, de efficientie kan hoger zijn, al geld dat voor het product uit dit artikel niet. Een amd ryzen 5 5600 gebruikt ook meer stroom dan een single core celeron, maar de 5600 is toch een stuk efficienter.
Het probleem zit hem in een stukje "induced demand" zoals dat zo mooi heet.
Als meer mensen een hogere powerlimit in hun hardware hebben en daarmee ook meer performance, zullen ontwikkelaars daar meer gebruik van maken en zal het gemiddelde verbruik per persoon stijgen.
Een maximum op het verbruik van consumentenhardware vind ik daarom nog niet eens zo'n slecht idee.
Een consumenten workload gaat die 350W niet verbruiken. Dus die maatregel gaat niets het effect hebben wat jij ervan verwacht.

Uberhaupt is het TDP iets heel anders dan het verbruik in bijvoorbeeld een gaming workload. Zie bijvoorbeeld een 12900K met een geconfigureerd TDP van 241W. Die cpu verbruikt 45W tijdens Anno 1800, 63W tijdens Borderlands 3, enz. Zie https://www.igorslab.de/e...d-really-frugal-part-1/5/.

[Reactie gewijzigd door sdk1985 op 18 augustus 2022 14:50]

Ten eerste, ik geef bedoel voornamelijk dat een maatregel volgens mij slim is, dat hoeft niet zozeer deze maatregel te zijn.

Jouw voorbeelden geven trouwens mooi aan dat wat ik noem al gaande is.
In het jaar 2000 gebruikte je complete PC waarschijnlijk 60W in-game.
(63W CPU verbruik voor iets als Borderlands 3 klinkt trouwens als ontzettend veel!)
Natuurlijk zijn games mooier en/of complexer geworden in diezelfde tijd, maar dat vind ik geen goed excuus.

Hoe meer rekenkracht de gemiddelde consument tot zijn beschikking heeft, hoe meer de ontwikkelaar daar gebruik van zal maken. Bijvoorbeeld door te besparen op optimalisatie.
Ik kan me bijvoorbeeld geen game-gigant voorstellen die de programmeurs even een jaar geeft om de code te optimaliseren zodat de benodigde rekenkracht omlaag gebracht kan worden op het moment dat 90% van de consumenten-PC's het product al kan draaien.
De meeste softwaremakers zien dat verschil in efficiëntie van hun code niet terug in de omzet.
Het effect dat jij denkt te zien is er eerlijk gezegd niet. Ik heb in mijn huidige gaming pc (8700K, RTX 2070) op een gegeven moment een (zuinige) 550W voeding gezet. De jaren daarvoor heb ik 2x een 750W gebruikt maar het effectieve gebruik lag eigenlijk al jaren rond de 350W, in ieder geval voor mijn builds.

Dat voorbeeld van 2000 is wel erg lang geleden maar tegelijkertijd zeer onwaarschijnlijk. In die tijd stookte je CPU altijd vol vermogen. Speedstep kwam pas wat later. Ik geloof dat ik sinds 2001 een Pentium 4 2533 had en dan moet je denken aan 60W voor de cpu. De gpu's uit die tijd deden circa 150W.

Hoe dan ook ben je met een XY probleem bezig. Want hoeveel Kwh's je met je gaming hobby verstookt is niet het probleem waar jij je druk om maakt. De ecologische voetafdruk die jij als persoon hebt is oneindig veel groter dan die Kwh's die je verstookt tijdens gamen.

Om het concreet te maken; je kunt onwijs moeilijk gaan doen en zorgen dat een game maximaal 100W verstookt. Vervolgens verbruikt iemand die zijn game de hele dag aan laat staan alsnog meer dan iemand die incidenteel met een 800W systeem gamed. Dus dan moet je daar ook weer op gaan handhaven, het einde is dan zoek.

Dat is verder niet erg want het problematische deel in de context van klimaatverandering (dan is mijn aanname dat het je daar om te doen is) zit hem in het aardolie verbruik. Het verlagen van het aardolie verbruik (auto, vliegtuig, smeermiddelen, plastic, veevoer, rubber, verf, tandpasta, piepschuim, enz. Daarnaast ook chemicaliën voor zeep, medicijnen, schoonmaakmiddelen, explosieven, kunstmest, enz. Circa 2/3e van aardolie wordt gebruikt voor energie, de rest voor productie.

Hetzelfde overigens voor methaan :
The new CCAC report notes that most human-caused methane emissions come from three sectors: fossil fuels, waste, and agriculture. In the fossil fuel sector, oil and gas extraction, processing, and distribution account for 23 per cent, and coal mining accounts for 12 per cent of emissions. In the waste sector, landfills and wastewater make up about 20 per cent of emissions. In the agricultural sector, livestock emissions from manure and enteric fermentation represent roughly 32 per cent, and rice cultivation 8 per cent of emissions.
De aanpak van kunstmatig minderen werkt niet in een wereld die steeds meer mensen krijgt . Ga je fossiel vrij dan kun je zoveel gamen als je wilt.

[Reactie gewijzigd door sdk1985 op 18 augustus 2022 16:51]

EIST was later maar de eerste Speedstep zat al in de Pentium 3 Mobile chips en dat was inderdaad rond 2000 :P en de P3's van die tijd hadden al een tdp van ±30watt.
Voor de desktop CPU's heeft het inderdaad nog een tijd niet in de bios gezeten alhoewel het bij sommige hacked bioses of socket479 boards (mobile chips) wel al gebruikt werd
Ik bedoelde meer dat je het kan zien aan de hoeveelheid rekenkracht die programma's met vergelijkbare functies nodig zijn gaan hebben.
Dat de lijn van verbruik niet altijd stijgt is omdat de hardwaremakers de hardware steeds meer instructies per watt kunnen laten uitvoeren.

Waarom je met een verhaal over klimaatverandering komt snap ik overigens niet.
Mijn voornaamste reden om deze toenames te hekelen zit hem in simpele dingen als hogere kosten, geluidsproductie (van koeling), lagere batterijduur van mobiele apparaten en een bulk warmteproductie waar ik het niet wil.
Als het ook beter voor het milieu is zou dat mooi meegenomen zijn.
Waarom je met een verhaal over klimaatverandering komt snap ik overigens niet.
Mijn voornaamste reden om deze toenames te hekelen zit hem in simpele dingen als hogere kosten, geluidsproductie (van koeling), lagere batterijduur van mobiele apparaten en een bulk warmteproductie waar ik het niet wil.
Dat is niet zo logisch want dit artikel gaat over een desktop cpu met een (extra hoog) configureerbaar TDP. De cpu's die in mobiele apparaten gaan hebben een lager geconfigureerd (maximum) TDP. Je gaat geen 350W TDP limiet in een laptop zien. Warmte is verder niet zo heel spannend want wordt het spul te warm dan zakken de clock snelheden gewoon ietsje. Verder zijn AOI's tegenwoordig erg goed . Klimaatzorgen was de meest logische verklaring.

[Reactie gewijzigd door sdk1985 op 19 augustus 2022 16:47]

Deze reactieketen had misschien korter gekund als ik wat duidelijker geweest was, sorry daarvoor.
Ik zal de onderwerpen aanstippen op volgorde van jouw tekst.
Dat is niet zo logisch want dit artikel gaat over een desktop cpu met een (extra hoog) configureerbaar TDP.
Dat mijn reacties bij dit artikel staan en niet bij het artikel waarin aangestipt werd dat de TDP's over de hele linie omhoog trenden, komt omdat dit gewoon de druppel was voor mij om te gaan spuien.
Waarschijnlijk was mijn opmerking beter op zijn plek geweest bij dat artikel, of op het forum.
De cpu's die in mobiele apparaten gaan hebben een lager geconfigureerd (maximum) TDP. Je gaat geen 350W TDP limiet in een laptop zien.
Klopt helemaal, maar de CPU in de laptop zal wel harder moeten werken naarmate de software zwaarder wordt. Als de software sneller zwaarder wordt dan de CPU efficiënter wordt krijg je bij een gelijkblijvende accucapaciteit logischerwijs een lagere accuduur.
Dat de software zwaarder wordt is het stukje induced demand waar ik het eerder over had.
Het is natuurlijk maar een aanname dat het voort zal zetten, maar de toekomst is altijd een stukje koffiedik kijken.
Warmte is verder niet zo heel spannend want wordt het spul te warm dan zakken de clocksnelheden gewoon ietsje. Verder zijn AIO's tegenwoordig erg goed.
Ik heb het over de warmte die mijn kamer ingeslingerd wordt. De benodigde koeling en stroomvoorziening vielen voor mij al onder het punt "kosten".
En wat betreft geluidsproductie zijn AIO's voor mij nog lang niet goed genoeg, maar dat is natuurlijk enkel een persoonlijke mening. ;)
Klimaatzorgen was de meest logische verklaring.
Dat snap ik nu, volgens mij kijken jij op een andere manier naar deze onderwerpen (vanuit de techniek) dan ik (vanuit de mens).
Als ik enkel vanuit de techniek kijk, kom ik ook tot de conclusie dat er niets mis is met de hogere limieten. Immers blijven de processors voorlopig nog steeds elke generatie weer meer instructies per Wh leveren.
De hogere maximale performance is dan alleen maar mooi meegenomen.
Dat ik een probleem zie, komt ook echt alleen maar omdat ik verwacht dat die verhoogde maximale performance door middel van een hoger verbruik steeds algemener gebruikt gaat worden voor doeleinden waar het echt niet voor nodig is. De menselijke factor dus. (met "doeleinden waar het echt niet voor nodig is" bedoel ik dus "minder optimalisatie/luier programmeren")

Nou hoop ik dat ik deze keer wel duidelijk ben geweest, want ik ben benieuwd naar de kijk hierop van een karmakoning op het gebied van processors :D

[Reactie gewijzigd door renezaal op 19 augustus 2022 17:39]

Misschien moeten er dan eens betere incentives komen voor programmeurs om efficiente software te schrijven. Dat een chat app, zo honderden MBs to een gigabyte geheugen gebruiken (Teams), hoe doe je dat?
Ja, dat is precies wat ik bedoel!
Als de klant het toch wel kan draaien, waarom zou de programmeur dan tijd besteden aan optimaliseren?
Door ergens limieten, of lokkertjes, aan te brengen die efficiënt gebruik van de rekenkracht uitnodigen, kunnen we denk ik een hoop winnen.
Maar dat is niet hoe effficientie werkt voor CPUs binnen een architecture. Des te meer stroom je toelaat des te inefficienter de CPU wordt en dit kan heel extreem gaan. Stroomverbruik stijgt immers exponentieel met hogere kloksnelheden. Een 13900k zal best efficient kunnen zijn maar niet op 350W. Je krijgt dan 10-20% meer performance voor een 50% hoger stroomverbruik.
Inderdaad, tijdens een workload die daadwerkelijk verbruikt 350W zal de efficiëntie uit het raam gaan, maar goed, dat is dan ook een keuze die je bewust maakt door deze optie aan te zetten. Waarbij nog moet blijken of dit uberhaupt een optie is die Intel standaard gaat aanbieden en dus als niet overklokken beschouwd moet worden of dat dit weer zo'n trucje is van de moederbord fabrikanten (net als bijv. MCE), wat bij gebruik wel als overklokken beschouwd moet worden en dus niet representatief is voor het standaard energie verbruik van deze cpu's.

Maar het wil niet zeggen dat een cpu met een powerlimit van 350W niet efficient is, zie bijvoorbeeld deze review, waarbij je ziet dat in gaming een 12900K met een powerlimit van 241W efficiënter is dat een Ryzen 5950X met een powerlimit van 142W. https://www.igorslab.de/e...d-really-frugal-part-1/9/ en waarbij je ook gelijk ziet dat over de hele linie Intels 12th gen ondanks de hogere power limits over vrijwel de gehele linie in de daar geteste workloads net zo efficient of efficiënter is dan de AMD tegenhangers. Iets dat je niet verwacht kijkende naar enkel de power limits (wat helaas te vaak gebeurt, ook door reviewers).

Je zal dat soort zaken dus altijd wel het werkelijke verbruik per workload moeten bekijken en niet enkel beoordelen op een maximaal piekverbruik op stock settings of ergers, het piek verbruik tijdens een al dan niet bewuste overklok (er zijn immers ook moederbord fabrikanten die default overklokken om er wat beter uit te zien in de reviews, ten nadele van het energie verbruik, niet netjes, maar ze doen het wel).

[Reactie gewijzigd door Dennism op 18 augustus 2022 14:19]

Het is maar net hoe de meting is gedaan. Ook T.net heeft verbruik tijdens gaming gemeten: reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K

Hierin valt op dat de Intel minder stroom op de EPS connectoren trekt, maar de CPU+moederbord bij AMD weer zuiniger is.
Dat kan komen omdat er andere componenten zoals chipset, DRAM, geheugencontroller, PLLs en I/O vanaf een andere voedingrails zoals 5V(sb) rail worden gevoed. AMD's infinity cache bijvoorbeeld slurpt ook enkele Watt's, ook als het niets staat te doen. Waar Intel's hoge verbruik vandaan komt durf ik niet zo te zeggen.

Dat alles zal invloed hebben op een optimale frequentie waar de chip op kan draaien. Daarin box je tegen twee muren aan: een CPU die op een lage klokfrequentie draait, zal lang over de taak doen, en daardoor zal sluipverbruikers van enkele Watt ongeacht belasting zwaar meetellen. De andere muur is de exponentiele toename van stroomverbruik van de cores afhankelijk van frequentie. Het optimum ligt daar ergens tussen in, en afgaande op de meer gematigde chips, zal dat niet met een hele hoge boostclock zijn.

350W kan inderdaad een optimum zijn, maar aangezien de chip 8+16 P/E core configuratie krijgt, verwacht ik niet dat 350W dat optimum gaat zijn. In de energieverbruik test van t.net is al te zien dat de 12900K met 8+8 P/E cores stuk meer Wh verbruikt dan AMD chips. Tegelijkertijd is de 12700K met 8+4 configuratie (met minder efficiency cores dan de 12900K!) zelfs zuiniger dan de 5800X concurrent. Normaal gesproken zou je met meer cores binnen hetzelfde TDP op een efficientere deel van de frequentie-power curve moeten zitten... om maar aan te geven hoever de 12900K een factory-OC heeft meegekregen om maar bovenaan te staan in de single/multi-core prestaties tabel.

Het voelt beetje nutteloos aan, want met 1 goede next-gen CPU er na (die +15% IPC krijgt ofzo) zijn die scores allang weer achterhaalt. Maar we zitten vandaag, en waarschijnlijk ook morgen, wel met energieverslindende hardware opgescheept. Want waar houdt deze wedstrijd op?

[Reactie gewijzigd door Hans1990 op 18 augustus 2022 15:13]

Een 13900k zal best efficient kunnen zijn maar niet op 350W. Je krijgt dan 10-20% meer performance voor een 50% hoger stroomverbruik.
Probleem is alleen dat de consument dan doorheeft dat die i9 helemaal niet veel anders is dan de veel goedkopere i7.

Dit was heel pijnlijk zichtbaar bij de i7 11700K en de i9 11900K. Die i7 perste eigenlijk alles uit Intel's bakproces wat er nog in zat, de 11900K voegde enkel wat extra prestaties toe door gewoon idioot hoog te klokken.

Nou heeft Intel sinds Alder Lake een troef in handen in de vorm van e-cores, waarmee ze een high-end chip daadwerkelijk betere multithreaded-prestaties kunnen geven door gewoon een zwik e-cores toe te voegen, dat schaalt prima. Maar daarmee gaan je single-core prestaties niet omhoog, en dat is schijnbaar lastig te accepteren voor een fabrikant die daarin al tijden het snelste is.
Maar dat is niet hoe effficientie werkt voor CPUs binnen een architecture. Des te meer stroom je toelaat des te inefficienter de CPU wordt en dit kan heel extreem gaan. Stroomverbruik stijgt immers exponentieel met hogere kloksnelheden. Een 13900k zal best efficient kunnen zijn maar niet op 350W. Je krijgt dan 10-20% meer performance voor een 50% hoger stroomverbruik.
Kleine correctie; 2*v*frequentie. Om hogere frequenties stabiel te krijgen is meer voltage vereist, het voltage vormt de exponentiele component.

Overigens kon ik mijn 2500K uit 2010 (mijn eerste unlocked cpu) al een max TDP van 220W geven in de bios.

[Reactie gewijzigd door sdk1985 op 18 augustus 2022 23:35]

Moeten ze dan ook auto's gaan verbieden met meer dan 100 pk omdat 'het niet nodig is'?
Dat is een slecht vergelijkingsvoorbeeld. Hoe "sterk" een auto is, is niet zo relevant. De hoeveelheid energie/brandstof die een auto nodig heeft om e.o.a. gestandaardiseerde rijtest te voltooien echter wel (wat dan ook op het energielabel voor auto's staat).

Daarom wordt hier ook gesteld dat het maximale wattage gelimiteerd zou moeten worden (of wellicht de hoeveelheid die nodig is om een bepaalde test uit te voeren), niet het aantal operaties dat een cpu per seconde kan doen.
Het lijkt erop dat de cpu's bij light workloads gewoon zuinig zijn zoals normaal. Ze hebben het immers over dezelfde turbo-modus en specifiek het 'maximum'. Dan is wat hij zegt wel zeer relevant toch?
Beetje scheef vergelijk aangezien het verbruik van auto's al op andere manieren aan banden gelegd wordt, onder andere met snelheidslimieten.
Dat is (nog) niet van toepassing op processoren.
Snelheidslimieten zijn voor specifiek voor veiligheid :?
Klopt, maar ze hebben ook een groot effect op het verbruik van auto's.
Als er geen limiet zou zitten op hoe snel auto's mogen, zou de gemiddelde snelheid, en daarmee het gemiddelde verbruik, hoger liggen.
Immers is het aandeel van de snelheid in je verbruik kwadratisch.

Daar komt bij dat doordat je een relatief laag limiet hebt, de vraag naar auto's die sneller kunnen (lees: meer pk hebben) sterk gelimiteerd is.
De fabrikanten kunnen ook de efficiëntiecurve van hun auto's nu afstemmen op het bereik van snelheden die je hier op de openbare wegen mag rijden.

Al met al kan je volgens mij wel stellen dat het hanteren van snelheidslimieten, onder andere, het verbruik van auto's aan banden legt.
Luchtweerstand = kwadratisch, dus verbruik is kwadratisch? Klinkt als onzin.
Dat is geen onzin, maar elementaire natuurkunde/wiskunde.
Elke factor die kwadratisch is maakt de hele formule kwadratisch.
Nou maakt dat niet uit als de waardes waarbij de factor relevant wordt buiten het realistisch bereik liggen, maar bij 100km/u is de luchtweerstand voor auto's al de voornaamste kracht die overwonnen moet worden om op snelheid te blijven.
Dit betreft natuurlijk alleen maar de kinetische energie van de motor, maar laat dat nou net zijn waarom dat ding in een auto zit en laat die motor ook nog eens dat zijn wat het meeste verbruikt van de hele auto.
Aangezien de kinetische energie van een motor in een rechtstreeks verband staat met het verbruik van die motor, kan je dus wel degelijk stellen dat het verbruik kwadratisch toeneemt met de snelheid door de luchtweerstand.
Als dit niet duidelijk is wil ik het er best verder over hebben, maar dan graag via PM omdat we hier wel heel ver off-topic gaan ;)
"Elke factor die kwadratisch is maakt de hele formule kwadratisch."
Even tot hier gelezen.
Je kan bijv y=3000x+0.0001x^2 hebben
Ja lekker leuk dat het kwadratisch is, als x niet redelijk groot is is het onzin, terwijl het wiskundig nog steeds kwadratisch is.
Je had dan ook in eerste instantie hierop kunnen reageren, want dat er een kwadratische element is had je in je eerste bericht al duidelijk gemaakt.

Ipv een heel verhaal kan je ook gelijk gewoon wat echte data sturen dat laat zien wat de waardes gemiddeld zijn van de factoren. Daarbij graag luchtweerstand vergelijken met alle andere soorten weerstanden etc.

[Reactie gewijzigd door jwywy17276 op 19 augustus 2022 19:19]

Ja lekker leuk dat het kwadratisch is, als x niet redelijk groot is is het onzin, terwijl het wiskundig nog steeds kwadratisch is.
Als je een regel verder had gelezen had je al gezien dat ik dat ook uitleg.
In plaats van dat je dat herhaalt, kan je de discussie ook productief houden door gewoon een paar seconden te nemen om verder te lezen.

De vuistregel is dat bij 100km/u de luchtweerstand de voornaamste weerstand voor een auto is.
De reden dat ik niet zomaar "echte data" ga neerzetten is omdat het heel wat rekenwerk is om ook maar één auto door te rekenen. Ik ben niet bereid om dat voor je te gaan uitrekenen en op te maken.

Wat ik wel bereid ben te doen is je wijzen naar enkele plekken waar mensen daar wel toe bereid waren.
En een calculator voor de Tesla Model 3, die een van de laagste luchtweerstandscoefficienten van alle huidige productiewagens heeft.
Je had dan ook in eerste instantie dat kunnen zeggen, want na dat stuk stopte ik ook met lezen.
Nee, totaal niet? Waarom gingen we ineens 100 rijden op de snelweg? Waarom moet de snelheidslimiet soms omlaag bij natuurgebieden, of juist in de buurt van veel bewoning?

Oke, het eigenlijke antwoord is "vervuiling" en dat is subtiel anders dan verbruik, maar toch. Dat ligt een stuk dichter bij elkaar dan bij veiligheid.

[Reactie gewijzigd door bwerg op 18 augustus 2022 16:36]

Alles boven 1 Ghz zwaar belasten
Dat gebeurt al gedeeltelijk. Veel mordene auto's zijn softwarematige al begrenst op maximale vermogen. Iets wat vroeger niet van toepassing was.
Een energielabel werkt vrij goed om fabrikanten aan te zetten spullen zuiniger te maken, sedert er bijvoorbeeld energielabels op koelkasten zitten werden ze zoveel zuiniger dat zelfs nieuwe energielabels nodig werden.

Wat mij betreft dus geen verbod, maar wel een goed zichtbaar label op de verpakking. Wat mij betreft het hele alfabet gebruiken: Energielabel Z boven de 300W. Label niet in verhouding zetten tot de prestaties, het afwegen van prestaties t.o.v. verbruik doet de consument maar.
Het niet afzetten naar de prestaties zou juist vreemd zijn, als ik hier kijk: https://nl.wikipedia.org/wiki/Energielabel gaan juist al die labels uit van efficientie.

Kijken enkel naar een piekverbruik is natuurlijk ook vrij vreemd, je wil juist weten wat een apparaat verbruikt tijdens de werkzaamheden die jij gaat uitvoeren ermee, zodat je een zo efficient mogelijk apparaat kan kopen voor jouw werkzaamheden als je efficiëntie belangrijk(er) vind dan de maximale performance (lang niet iedere gebruiker vind immers efficiëntie belangrijk en zet bijv graag PBO aan voor een minimale winst, maar wel veel hoger gebruik of gaat al dan niet bewust overklokken op andere wijze). Nu zal dat voor label niet mogelijk zijn en dat zal de consument dus inderdaad zelf moeten uitzoeken.

Echter denk ik wel dat als je een label wil introduceren voor computers of zelfs individuele componenten je dit dan moet bepalen op basis van een standaard workload of liever workload(s) (denk aan een gaming workload, een creative productivity workload, een basis kantoor workload, een thuisgebruik workload, denk aan youtube bijv. e.d. waarna dan een gemiddelde wordt genomen) waarbij de efficiëntie de energie klasse bepaald en niet een piek verbruik.

Daarnaast natuurlijk ook op stock settings en dus niet op een 'unlocked' moederbord of iets dergelijks dat eigenlijk aan het overklokken is. Dat bij overklokken stroomverbruik onevenredig toeneemt tot de prestaties omdat de powerlimits dan uit het raam gaat weten we immers wel, maar is geen normaal gebruik van de hardware.

[Reactie gewijzigd door Dennism op 18 augustus 2022 13:51]

Het probleem van afzetten naar prestaties is dat je label extreem versneld veroudert en daarom is het niet goed werkbaar voor computers. Ik zou inderdaad wel het vermogen op basis van een standaard benchmark meten, bijvoorbeeld SPEC CPU zou prima bruikbaar zijn en dan gemiddeld wattage tijdens de test gebruiken voor het energielabel. In hoeveel seconden het voltooid wordt zou in niet opnemen in het energielabel, maar mag de fabrikant erbij zeker bij schrijven, zodat de koper ze tegen elkaar af kan wegen.
Spec zou mij dan eigenlijk weer niet interessant lijken, dat is imho meer iets voor zakelijke systemen als ik die suite zo bekijk, het komt ook wat 'gedateerd' over en volgens mij gebruik ook vrijwel geen enkele consumenten oriënteerde reviewer het, waardoor het, verwacht ik in ieder geval nogal 'ver weg' staat van wat de gemiddelde consument op zijn of haar systeem doet en wat deze consument aan benchmarks bekijkt om tot een conclusie te komen.

Ik zou dan toch eerder inzetten op een suite die daar meer op inspeelt, maar ook bijvoorbeeld iets als gaming meeneemt, wat tot best verrassende resultaten kan leiden qua efficiëntie wanneer er verder gekeken wordt dan een cinebench 23 om het 'stroomverbruik' te meten door een reviewer. Zie bijv: https://www.igorslab.de/e...d-really-frugal-part-1/9/

[Reactie gewijzigd door Dennism op 18 augustus 2022 15:14]

SPEC heeft het voordeel dat de hele industrie het er over eens is dat het een goede maatstaf is voor de rekenkracht van een processor en dat processorfabrikanten uit eigen beweging de SPEC-scores van hun processoren publiceren. Je vermijdt dus het gezeur over een recensent die verkeerd gemeten zou hebben, wat je in recensies op websites als deze tegenkomt. Gedateerdheid is geen probleem: Zodra de industrie de suite als gedateerd beschouwd komt er weer een nieuwe versie. Je hebt SPEC CPU 2000, 2006 en 2017. Omdat 2006 maar liefst 11 jaar meeging, zou het kunnen dat het nog best even duurt voordat 2017 vervangen zal worden.
Dat voordeel ben ik deels met je eens, maar publiceren ze dat niet alleen voor hun zakelijke cpu's? Misschien dat ik verkeerd kijk, maar ik zie bijv. AMD alleen 'World Record' Spec resultaten benoemen van Epyc Sku's, maar ook hier kom ik alleen zakelijke Sku's / systemen tegen: https://www.spec.org/cpu2017/results/ in een korte browse trough.

Ik zie eigenlijk nergens consumenten Sku's aangeprezen of vergeleken worden op basis van door de fabrikant verstrekte spec cijfers. Ik krijg dus ook niet het idee dat Spec heel erg gepushed wordt om gebruikt te worden voor consumenten Sku's. Terwijl dat zakelijk natuurlijk wel zo is.

Maar ook als je hier kijkt en dan vooral onder Q13: https://www.spec.org/cpu2017/Docs/overview.html#Q13 zijn dan vrijwel allemaal voornamelijk zakelijke workloads, waardoor het maar de vraag is in hoeverre die resultaten representatief zijn (en te vertalen) naar consumenten workloads. Ik krijg bijv. ook het idee dat deze workloads erg op multicore compute performance georiënteerd zijn op het eerste gezicht, terwijl je voor een consumenten test denk ik nog veel meer kijkt naar een mix waar ST en lowly threaded vaak nog het meest belangrijk zullen zijn en juist een volledige all core belasting veel minder vaak voorkomt. Wat natuurlijk mogelijk voor volledig andere resultaten zal zorgen, immers zie je regelmatig dat AMD koning is in multicore efficiëntie waar alle cores vol belast worden (denk bijv. aan CB), terwijl Intel in andere workloads, o.a. gaming het juist goed doet op dit moment.

En je dus als consument voor gaming misschien wel een Intel cpu wil, terwijl als je heel de dag gaat renderen of video bewerker op de cpu waarschijnlijk beter af bent bij AMD.

[Reactie gewijzigd door Dennism op 18 augustus 2022 16:08]

Stofzuigers waren ook een mooi voorbeeld. Het was best gebruikelijk om trotst te adverteren dat een stofzuiger wel 2600 Watt (wellicht zelfs 3000?) zuigkracht had.

Die labels zijn blijkbaar niet meer geldig na de klacht van Dyson, maar het had wel als gevolg dat men stofzuigers ging maken die best goed konden zuigen met hooguit de maximale 1600W (en later 900W)... ondertussen is iets als 550W normaal.
Dat verkoop argument gaat anno 2022 niet meer werken met 0,765 per Kwh (eneco, vandaag)...
Uiteraard, het was ten tijde van de introductie van het energielabel al onzin. Maar de fabrikanten hadden het zichzelf wellicht ook wel lastig gemaakt door zo te adverteren (hoe maak je duidelijk dat een stofzuiger die 'maar' 1600 Watt gebruikt beter is dan een die 2600 Watt nodig heeft?).

En daardoor was het blijkbaar nodig om de fabrikanten een schop onder de kont te geven dmv een energielabel om serieuze stappen te zetten naar efficiëntere stofzuigers.

[Reactie gewijzigd door ACM op 19 augustus 2022 07:23]

Begrijp me niet verkeerd, an sich vind ik dit soort wetgeving wel positief. Maar als we heel eerlijk zijn zal de daadwerkelijke impact beperkt zijn. Stel je stofzuigt 30 minuten per week dan kom je op 26 uur per jaar. Met zo'n 3000 Kwh stofzuiger die je op 70% zet (100% op die dingen gaf wel erg veel herrie) praten we over circa 52 Kwh per jaar. Zelf toevallig recent voor nieuwe zakloze stofzuiger gekeken. Dan kom je bijvoorbeeld op de Philips PowerPro serie, 900W. Dan ga je naar 23,4 Kwh en zou je 28.6 Kwh besparen. Dat is nog geen halve 'tank' van een Tesla Model 3. Natuurlijk heel leuk over 550 miljoen inwoners, maar op individueel niveau schiet het natuurlijk niet op. Met dit soort maatregelen ga je het persoonlijke energie verbruik van je inwoners niet significant raken. Uiteindelijk kun je er dus twee kanten mee op. Het werkt, maar is tegelijkertijd niet zaligmakend.

Voor CPU's heeft dit soort wetgeving overigens weinig zin omdat er van nature al een drang is om steeds betere performance per watt te behalen. Sterker nog, het zou ons op achterstand zetten ten oprichtte van de rest van de wereld. Uiteindelijk wint degene met de meeste rekenkracht.

[Reactie gewijzigd door sdk1985 op 19 augustus 2022 16:57]

Eens hoor, een stofzuiger zal in veel gevallen niet dagelijks gebruikt worden. Dus het effect per huishouden is klein. 't Ging mij vooral om te benoemen dat de efficiëntie blijkbaar wel degelijk verbeterd kon worden als er een energielabel opgelegd wordt.

Ook bij vaatwassers, wasmachines en andere 'grootverbruikers' die niet continu aanstaan is het effect maar beperkt per huishouden. Ik ben me nu het oriënteren op een wasmachine; de zuinigste hebben volgens opgave iets van 0.5kWh nodig voor een wasbeurt, mijn oude uit 2008 rond de 1kWh. Zelfs als je dagelijks wast scheelt dat 'maar' zo'n 180kWh (die van mij staat een stuk minder vaak aan).

De meeste winst zal - gok ik zo - bij koelkasten gezeten hebben. Of wellicht het verbod op gloeilampen of op een standby-verbruik van meer dan 1W.

Anderzijds, als je van al die apparaten de winsten optelt wordt het toch nog wel een leuk verschil :)
50W per processor? Dat lijkt me niet zo lastig.

Je lost het simpelweg op door multi-socket PC's te gaan verkopen. Ja, jammer dat je intra-socket traffic véél meer verbruitkt dan je voorheen kwijt was voor de veel kortere verbindingen, maar je voldoet wel aan de wet.

Dit is een bekend effect. Wetten worden doorgaans nageleefd, ook als je juist het tegenovergestelde bereiken van wat er beoogd is.
Je moet inderdaad verrekte goed oppassen dat wetten niet te veel in technische termen beschreven staan. Een algemene productbrede definitie waar je niet omheen kan is veel zinniger.

In dat opzicht is het begrenzen van CPU's al veel te technisch. Er zit tegenwoordig heel wat logica in de CPU die vroeger in de northbridge/southbridge zat, zo kun je gewoon met energieverbruik schuiven. En wat doe je met een krachtige IGP? Mag dat ineens niet meer, terwijl een dikke discrete videokaart ernaast wel mag? Dat terwijl een krachtige IGP vaak efficienter is dan een losse low-end videokaart. Dat is echt niet te doen.

Dan moet je het dus echt over producten als geheel hebben. Een laptop of desktop die geen 800W mag verbruiken klinkt veel zinniger. Maar dan zit je weer met beoogd gebruik, voor een laptop of kantoor-PC is 300W gruwelijk inefficient maar voor een high-end game-PC is dat al jarenlang een heel normaal (en misschien zelfs bescheiden) verbruik. Laat staan als iemand een server of workstation nodig heeft, diegene zal d'r niet blij van worden als die PC niet boven de 300W uit mag komen.

TL;DR: wetgeving gaat niet gebeuren.

[Reactie gewijzigd door bwerg op 18 augustus 2022 16:43]

Goed bedoelde wetten die het tegenovergestelde effect hebben? Say it ain't so!
Dus eigenlijk zou je iets als : max 2 Watt per core willen ? Ervan uitgaande dat de CPU cache daar dan los van staat.
Dan duw je als Intel er dus 64 hyper-efficiente cores bij, die elk 0.1 W doen. Dan heb je 122W aan extra ruimte voor de andere cores. Als je je afvrgaat waar al die belastingontwijkingstrucs vandaan komen, dat is hetzelfde probleem. Politici zijn niet goed in het maken van waterdichte wetten
Iedereen denkt maar dat processors 24/7 op het maximale verbruik zitten, moderne processoren zijn in dagelijks gebruik zuiniger dan ooit. Dat ze onder zware load even heel veel kunnen verbruiken doet daar niets aan af.

Je ziet ook dat Alder Lake processors veel meer kunnen verbruiken dan Ryzen processors maar in veel real-use cases zelfs zuiniger zijn dan Ryzen.
Dat ze zuiniger zijn in veels use cases lees ik anders in de vergelijkings-testen hier op Tweakers niet terug voor zover ik me kan herinneren, maar mogelijk kun je de nieuwste feiten er bij plaatse!
Kijk hier maar eens onder stroomverbruik gaming: reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K

Die zogenaamde energieslurpende 12900K is efficiënter dan een 5950X.

Of dit wat uitgebreidere artikel: https://www.pcworld.com/a...-a-power-hog-its-not.html
Nou, ik kijk daar en zie de nieuwste Intels qua energieverbruik inefficiënt presteren, zowel in games als in andere applicaties.

Het blijkt dat een Intel CPU met bijbehorende chipset zelfs idel on-zuiniger is dan een AMD met bijbehorende chipset.

Wel kijken naar het totale verbruik natuurlijk.
Ik weet niet precies wat de grens zou moeten zijn, maar voor heel wat producten hebben we al vergelijkbare regels. Hieronder noemt iemand de Euro5 emissie standaard, maar ik kan me ook de stofzuigers nog goed herinneren. Hoewel de discussie zoals altijd best groot is geweest als de regels werden aangescherpt lijkt het wel geholpen te hebben.

Toen in 2017 de regels verder werden aangescherpt had tweakers er ook een artikel over:
https://tweakers.net/nieu...0w-en-meer-in-de-ban.html

PS: ik weet overigens niet wat ik moet denken van deze nieuwe Intel processoren. Ik dacht dat er juist was gelekt dat AMD weer meer ging gebruiken en Intel gelijk zou blijven (dat zou het speelveld weer wat gelijk trekken). Maar als dit waar is dan lijkt het er op dat Intel hun eigen definities in het powerlimiet weer veranderd heeft om er beter te laten lijken dan wat het is. Ik hoop iig in een paar grondige reviews wanneer de nieuwe chips uitkomen.
Edit: vooropgesteld, ik vind de diminishing returns bij deze CPU ook belachelijk. Het is verspilling.

Maar regelgeving lijkt me vooralsnog onnodig.

Je zit veel teveel in de tunnel van computers als je denkt dat dit soort stroomgebruik materieel is. Het gaat nergens over. Bovendien is het niet alsof de cpu continue dit stroomgebruik nodig heeft, tenzij je use-case daarom vraagt. Zie daar de rechtvaardiging. Een computer is geen strofzuiger.

Er zijn duizenden andere dingen te bedenken waar dit soort regels veel meer opleveren dan als het gaat om CPUs.

[Reactie gewijzigd door PjotterP op 18 augustus 2022 14:02]

high end video kaarten ook afschaffen? Mijn CPU gebruikt 250 watt. Mijn GPU 320 – 340W. toch betaal ik nu aan energie per maand incl jacuzzi in de tuin 39 euro p/m. ( Zonnepanelen ) en verwacht volgend jaar lager te zitten. Doe gewoon 3500kwh van het net per jaar laag belasten. alles boven 3500kwh B.v. extra 50% belasting. Goed voor de armen en goed voor de mensen die veel willen verbruiken. Om toch na te denken waar ze kunnen besparen.

[Reactie gewijzigd door Microwilly op 18 augustus 2022 14:14]

Ook geen gek plan, heffen op totale stroomverbruik!
En als die cpu met meer wattage nou eens sneller is en daardoor sneller klaar met een video exporteren, en je je pc dus eerder uitzet ( waardoor alle andere onderdelen zoals je scherm ook geen stroom meer gebruiken ) en daardoor dus korter energie gebruikt, is dat dan niet efficienter? Het is niet zo dat hij idle zoveel meer gebruikt als een celeronnetje hoor.....
Wacht even. Stel je zou genoeg zonnepanelen hebben gekocht om die 350W goed te kunnen compenseren. Dan is er geen extra uitstoot en zie ik geen reden om het te verbieden.

Ook vind ik dat als iemand een airco van 2000W 4 uur per dag heeft aanstaan en ik dat niet doe, en ik wil dan een 350W CPU (die alleen zoveel verbruikt bij 100% usage) gebruiken dat dat moet kunnen....

Ik vind dat de onnodige grootverbruik juist moet stoppen, door extra verbruik harder te belasten.

[Reactie gewijzigd door MrFax op 18 augustus 2022 15:35]

Veelvuldig onnodig kleinverbruik is net zo schadelijk. Grenzen mogen best. Zowel op die airco als op die cpu..

Bij het verhaal zonnepanelen/terugleveren hoort nog iets en dat is opslag. Op dat moment is al je verbruik weer relevant.

[Reactie gewijzigd door Vayra op 18 augustus 2022 17:16]

Ik doelde meer op dat er moet worden gekeken naar totaalverbruik van iemand, niet naar individuele apparatuur. Mensen mogen best keuzes maken toch? Als ik er voor kies om geen airco aan te schaffen SPECIFIEK zodat ik wat meer ruimte heb in mijn verbruik (dus ik offer iets op wat ik wel zou willen hebben).

Om nou ronduit een CPU te gaan verbieden omdat het relatief veel verbruikt, dan zouden ze airco's eigenlijk helemaal moeten verbieden, want het is ook een luxeproduct wat eigenlijk ons klimaat totaal niet helpt (de warmte gaat toch ergens heen).

Ik hoop dat je mijn punt snapt. Mijn algehele verbruik is extreem laag(<1000kWh p.j.), maar toch heb ik best een zuipende gaming setup. Waarom zou dat dan niet mogen?

[Reactie gewijzigd door MrFax op 19 augustus 2022 00:34]

Zeker. Prima benadering, ik zag hierboven een soortgelijke suggestie.
Juist ja, wij hier in het westen denken alles af te kunnen kopen, zoals te lezen in je tekst.....

Volgens mij moeten we radicaal minder gaan consumeren op alle gebied. Zonnepanelen zijn geen zondoffer maar zouden we moeten plaatsen om minder of geen fossiel meer te hoeven gebruiken. Daarnaast is de productie van een zonnepaneel ook nog eens vervuilend dus laten we spaarzamelijk omgaan met alle grondstoffen en energie
Wat mij betreft verbied de EU import voor processors met een vermogen >150W. Met eventuele vergunbare uitzonderingen als je kan aantonen dat je het echt nodig hebt. Het liefst zou ik zelfs 50W als maximum zetten over een paar jaar. Dan kunnen AMD en Intel hun productlijn daarop aanpassen.
Ik heb geen idee waarom je off-topic / irrelevant bent gemodereerd, want je hebt een zeer goed punt!

Zoals in de discussie al is aangegeven, gebeurt het verbieden van teveel stroom vretende apparaten al, zoals bij stofzuigers.

Intel is al jaren de weg kwijt. Ze moeten hun Core i ontwerp weer eens vanaf de grond opnieuw opbouwen, met maximale efficiëntie als uitgangspunt. Ze zitten nu weer op het punt waar ze 2 decennia geleden ook zaten met hun Pentium 4: verwarmen was de hoofdfunctie, en zo terloops deed-ie nog wat berekeningen erbij.
Geen idee waarom je -1 krijgt. Wat mij betreft heb je op zich wel een punt, er zal iets moeten gaan gebeuren aan deze alsmaar oplopende vermogenswaanzin.

Al is een pure vermogenslimiet niet zo slim, een efficiëntie vereiste zou goed zijn.
Als de limiet 100W is krijg je automatisch een efficiëntierace, wie haalt het meeste performance uit de 100W.
Dat slaat nergens op, want deze industrie is al gefocust op performance/Watt, door de server markt.
Performance/Watt is maar één van de maatstaven. Performance/rack en performance/$ zijn ook belangrijk.

En sowieso, in het cloud tijdperk kan de EU wel serverchips van >100W verbieden, maar ze kunnen niet praktisch verbieden dat er in een cloud zo'n chip draait. Dat verbruik is onzichtbaar.
Je hebt gelijk. Het werkt ook tegen de vrije economie in. Denk dat als intel/amd ze niet supplied door de EU, dat het gewoon niet lukt om het in je rack te krijgen in de toekomst though. Bijv als je in de bios een hogere max verbruik instelt, dat de cpu er gewoon niet naar luistert ofzo. Al klinkt het niet echt heel praktisch.

[Reactie gewijzigd door jwywy17276 op 18 augustus 2022 15:41]

In de servermarkt wel ja, in de consumenten PC high-end markt niet.
En dat stelt dus in vergelijking niks voor
ach 60 cent per kw/h zou voldoende moeten zijn.
Is dat zo? Als ik een leuke avond heb mag dat best een 10tje kosten maar zit eerder op 2 a 3 euro :)
Waarom geen >20W? Of >10? Waarom 150 en 50?
Het gaat eigenlijk nergens over dit geroep.

[Reactie gewijzigd door Nolimit89 op 18 augustus 2022 14:07]

Wat mij betreft verbied de EU import voor processors met een vermogen >150W. Met eventuele vergunbare uitzonderingen als je kan aantonen dat je het echt nodig hebt.
Idem kamerthermostaten > 22 graden
Tropische aquariums en terrariums
Diepvrieskisten
Straalkachels en föhns > 250 W
Tuinverlichting en andere buitenlichten
Enzovoort enzovoort. Met vergunbare uitzondering dat je bijvoorbeeld echt een tropisch aquarium nodig hebt...
Wat mij betreft verbied de EU import voor processors met een vermogen >150W.
Dat gaat misschien wat ver, al moet ik wel zeggen dat ik het jammer vindt dat AMD's ZEN4 ook van 105 naar 170W is gegaan. "Vroeger" was 65W normaal voor een quad-core, 95W was voor een extreem topmodel; ik vond de 105W voor AMD's Zen3 dus wel een prestatie.

Ik heb in mijn workloads 0,0 nut voor Intel's E-cores; met mijn volgende CPU wil ik minstens 12 "normale" P-cores, wat mij betreft geen E-cores, en met een zo laag mogelijke TDP. Op dit moment zijn de 7900X en 7950X de enige CPU's die ik zou overwegen.

Een CPU met een vermogen van 350W is achterlijk. Ik kan me niet eens indenken dat je dat met een luchtkoeler op temperatuur gehouden krijgt.

(Ik kreeg deze vereisten te laat om Zen3 nog de moeite waard te maken; dan zing ik het nog wel een maand of 8 uit met mijn i7-6700K, en als Debian 12 uit is ga ik meteen voor een nieuwe computer met een 79000X of een 7950X. Dan hebben fabrikanten ook de kans om de kreukels uit BIOS-sen en chips te halen in de tussentijd.)

[Reactie gewijzigd door Katsunami op 18 augustus 2022 14:14]

In ieder geval voor consumentenproducten ja. Al vermoed ik dat maar een kleine niche echt deze top producten gebruikt, en dat die ook niet altijd op maximale load draait.
Ik denk dat je met een energielabel al een aardig eind komt. Liever 25 gebruikers die vrijwillig van 50 naar 40 watt gaan (250 watt besparing) dan 1 gebruiker die nu geforceerd 200 watt minder heeft. (bij gelijk gebruik op maximale load).

Serverpark beheerders kunnen zelf prima een optimale performance/watt vinden (zeker nu de stroomprijzen zo zijn gestegen). Sommige professionele gebruikers hebben nu eenmaal een workstation met maximale performance nodig, die moeten nog wel aan de topmodellen moeten kunnen komen. Je kan beter de belasting op stroom en koelwater omhoog gooien voor server parken, als je het verbruik wilt verlagen.
Ja, default tdp van 140W en dan in je bios dit uit kunnen schakelen inclusief 3000 how-to's op youtube, insta enz.

Nuttig. Heel nuttig. Kan je beter gewoon old skool een limiet van frequentie instellen waar je alleen als die hard OC'er bij kan komen. Een PSU-limiet is nuttiger, weinig mensen die er 2 combineren. Gewoon 500W maximaal.

[Reactie gewijzigd door Nox op 18 augustus 2022 14:35]

Gewoon zwaarder belasten. Accijns achtige heffing op onzuinige componenten. Ik zie het als dikke auto's. Je mag ze best rijden maar de verbruiker betaalt. Dan kan iedereen lekker zijn ding doen. Als jij dik wil bijbetalen voor je 5% perf, leef je uit...

[Reactie gewijzigd door Vayra op 18 augustus 2022 17:12]

Er is toch ook geen max verbruik qua auto's per minuut(zowel ICE als elektrisch)? Gaat er ook niet komen.

Wat je wil is dat hij bij regulier gebruik niet veel verbruikt. Dat er zo nu en dan uitschieters zijn bij een berekening(die sneller klaar is, dus wel meer watt doet, maar net zoveel of zelfs minder kWh kan verbruiken) zou geen probleem mogen zijn.

Niks mis met een efficiëntie richtlijn of zelfs limiet(minimaal geleverd werk/watt simpel gezegd), maar het geleverde werk beperken(dat doe je namelijk als je op watts limiteert) is natuurlijk van de zotte en zorgt er juist voor dat elektronica sneller afgevoerd wordt(2 jaar later is de performance namelijk te laag voor een deel van de power users).

[Reactie gewijzigd door MN-Power op 18 augustus 2022 17:18]

Kunnen processoren en videokaarten binnenkort niet gewoon met een eigen lichtnet snoer meegeleverd worden? Dan zorg ik er wel voor dat zij ieder een eigen groep krijgen in de meterkast.
Ik snap wel dat je een mop maakt ivm het stijgende lijn dat nieuwe hardware tegenwoordig maakt op basis van verbruik, maar voor zij die niet weten hoeveel vermogen een stopcontact minstens in Europa kan leveren, hierbij dus een korte optelsom voor een doorsnee monofase aansluiting:

220v * 16A = 3,52kW
Als je dan een CPU van piek 350W en grafische kaart van piek 450W aanschaft, zit je op een totaal piekvermogen van grofweg 1kW voor je systeem met de additionele hardware, wat veel is, maar bereikt dus lang niet het maximum.

Er zijn ook nog andere variabelen die uiteraard impact hebben, zoals andere toestellen die op diezelfde kring aangesloten zijn die bepalen wat je stopcontact kan leveren.

Woningen met 3-fase kunnen veel meer van het net halen uiteraard.

[Reactie gewijzigd door FreVDP op 18 augustus 2022 13:26]

Spanning ligt tegenwoordig wel een stukje hoger, 230-240V, en een enkelfase aansluiting is 25A of 30A (of meer). Een enkele groep is vaak 16A. Maar het huis kan in dat geval in het slechste geval (230V ~ 25A) ongeveer 5,7 kW leveren.
220 is inderdaad oud, enkelfase is over het algemeen 1x35A * 230V = 8050W totaal.

3-fase is meestal 3*25A*230V = 17250W.
Let hierbij wel op dat de netspanning 95% van de tijd 10% hoger en ook lager mag zijn. Dus zodra je er van uit gaat dat je altijd een bepaald wattage op een groep hebt kan dat wel eens leuke resultaten geven.

Om nog maar te zwijgen over dat het toegestaan is om voor 5% van de tijd zelfs een dip naar 15% onder de norm te hebben
En dat is nog eens wat mag. Als je een keer een voltage krijgt dat eigenlijk niet zou mogen wijkt de boel nog iets verder af :Y)
Kan ook niet anders. Dat is hoe zonnepanelen ook hun vermogen afgeven. Zorg dat wat je op het net zet in sync loopt en dat je spanning iets hoger is dat wat aangeboden wordt
Dan zal ik "gemiddeld" even aanpassen naar "minstens" ;)
Ah de website van Liander ging niet hoger dan 30A voor enkel fase ;(
Dat is wel piekspanning. Dat houd je hoofdzekering niet lang vol. Ik leverde onlangs 3500W terug over één fase en kreeg van de dienstdoende Stedin monteur die toevallig langs kwam dat mijn 35A zekering "wel warm aanvoelde".
Veelal 40A voor een enkelfasige aansluiting.
Je zit met een thuis PC inderdaad niet zo snel aan de limiet van een stopcontact. Een stoomstrijkijzer met zo'n basis station verbruikt vaak al iets van 2000W. Dat is een heel stuk meer dan een PC.

Waar je misschien wel op moet gaan letten is wanneer je een PC aan een verlengsnoer hebt zitten. Niet elk verlengsnoer is geschikt voor elk vermogen. Zeker niet als je er nog meer apparaten op aangesloten hebt zitten. Sommige verlengsnoeren mogen maar 1500w als maximale verbruik.
*flashback aan lanparty tijdperk*
Weet nog wel dat er een hele tafel aan mensen (denk, ongeveer 10 personen, elk met pc en toen was CRT nog gebruikelijker dan LCD) op een enkele haspel zaten die niet was uitgerold. Toen we een competitie begonnen (en dus als die pc's tegelijk een stuk meer beginnen te verbruiken) knalde ze er ineens met zn allen uit. De haspel was een smeulende blob van rubber waar wat koperdraden uitstaken.

Zeer zeker bij hogere vermogens, rol altij je haspels en verlengsnoeren uit! Anders heb je praktisch een grote elektromagneet gebouwd.
Tijdens veel LAN's hadden we een zwik van die 3-weg verdeeldoosjes waar iedereen er een van kreeg.

Uit mijn hoofd 12 gebruikers op een enkele serie verdeeldozen. En dat 4 maal, had je ook gelijk je switch vol.
Het spoel/magneet verhaal met haspels is een urban myth en in de praktijk helemaal geen issue, het probleem is puur dat de warmte van de binnenste draden niet weg kan en dan smelt de boel.
Vergeet niet dat deze hardware voor de hele wereld gemaakt wordt, ook de VS, waar men niet op 220V maar op 120V zit!

Fabrikanten moeten voor consumenten dus zorgen dat een PC niet meer dan 120V x 15A = 1800 W verbruikt. En dat is inclusief scherm, wat bij high-end gaming PCs (want waar stop je anders de dikste CPU en een RTX3090i in?) ook aardig wat verbruikt: een 27" 4K 144Hz scherm heeft een maximaal verbruik rond de 200 Watt. En twee schermen zijn ook populair: bam, 400 Watt voor de schermen.

De PC zelf moet dus binnen de 1400 Watt blijven omdat de VS voor shitty 120V koos, en dan zit je dus met een situatie dat je PC de hele groep bezet. Laten we ons gelukkig prijzen, want daardoor zullen we dus wss nooit zien dat PCs veel meer dan 1000 Watt gebruiken.
Scheelt dat die 200W continu vrijwel niet gehaald wordt, da's meestal een kwart of een derde.
Je piekverbruik is wel waar rekening mee moet worden gehouden: je moet maar even over de max zitten en je stop slaat door, dan is het klaar met gamen.
Da's niet helemaal waar. Je mag voor korte momenten over de 16A heen gaan. Hoeveel en hoe lang hangt af van de karakteristiek. Een A-karakteristiek klapt er sneller uit dan een D-karakteristiek. Ik ben er niet heel erg in thuis maar je kan zelfs voor een uur fors over de 16A gaan, 13% meer, da's dus ruim 2A.
Ik denk niet dat hardwarefabrikant rekening gaan houden daarmee. Het totale wattage is de optelsom van je componenten, en als een RTX 6090 in 2026 zo'n 1200W zou trekken, moet je zelf maar kijken wat voor cpu en harddisks je erbij prikt.

Overigens kunnen fabrikanten de hardware prima locken vanuit de bios om de laatste 10% performance niet vrij te geven, mochten de vermogens echt te hoog worden.
De VS kent zowel 15A als 20A groepen, dus je kan ook 2400W als bovengrens hanteren. Dat geeft je nog een extra 600W, dus 2000W totaal.

Niet helemaal denkbeeldig, ik heb hier een PC staan met 2x1000W voedingen. (en ruimte voor 4 GPU's.)
Ik snap wel dat je een mop maakt ivm het stijgende lijn dat nieuwe hardware tegenwoordig maakt op basis van verbruik, maar voor zij die niet weten hoeveel vermogen een stopcontact minstens in Europa kan leveren, hierbij dus een korte optelsom voor een doorsnee monofase aansluiting:

220v * 16A = 3,52kW
Volgens mij is dat een vermenigvuldiging... _/-\o_

En dat is wat een groep kan leveren (en we hebben 230V in NL). Op één groep zitten vele stopcontacten aangesloten (muv dedicated aansluitingen voor bv wasmachines en drogers).
Als je dan een CPU van piek 350W en grafische kaart van piek 450W aanschaft, zit je op een totaal piekvermogen van grofweg 1kW voor je systeem met de additionele hardware, wat veel is, maar bereikt dus lang niet het maximum.
Jouw auto kan misschien wel 200 km/u, maar rijd jij ook zo hard?
Mijn installatie kan voor 900W aan herrie produceren, maar de buurt zou het niet leuk vinden als ik dat doe.

Wat technisch kan is niet altijd gewenst. Of zinvol, of sociaal acceptabel, of ...
Ja de woning wel, maar die ene zekering waar de halve boven verdieping op draait en de kids met playstations, tv's etc ook nog aanhangen kan het nog wel eens zwaar gaan krijgen.

Wel handig, als je als ouder stroom wilt besparen, doe je gewoon de oven en de vaatwasser aan terwijl er eentje zit te gamen en uit is de hele boel. Als we de 40 series leaks mogen geloven kom je straks aan best stevige vermogens voor een knappe set up, zeker als je alle randapparatuur ook nog op dezelfde zekering hebt zitten.

Ik ben heel blij dat ik mijn computer hok heb voorzien van een eigen zekering tijdens de verbouwing en het huis van 3 fase stroom.
Ik voel me nu oud, maar een Voodoo 5 had een externe powersupply :9
Dat is puur omdat er niet genoeg enkel over het moederbord kwam. Zo ver ik weet verbruikt zon voodoo maximaal 50/60 watt, dat is niet te vergelijken met wat videokaarten tegenwoordig maximaal kunnen trekken.
Ik zie hier veel mensen over vallen maar als je kijkt naar "power" per watt zijn deze GPU's en CPU's enorm effecient. Er is een curve, je krijg meer energie voor ietwat lichtere CPU's & GPU's maar in het extreme zijn dit nog steeds "effeciente" krachtpatsers.

Daarnaast, ja ze verbruiken weer meer maar wie koopt zoiets? Het merendeel zal gen i13900k kopen dit is toch wel voor de extreme enthousiasteling. Net zoiets als een Ferrari naar mijn inziens ja vervuilend, luid maar voor de enkele high end gebruiker die bereid is om zoveel neer te tellen voor een top model.

Ik heb hier dan ook geen moeite mee maar het zou wel mooi zijn als er van de overheid een bepaalde rating komt. Net zoals je koelkast een A/B/C kan zijn, kan een CPU/GPU dit ook wel gebruiken.
Haha.
Incluis 'cadeaukaart' om bij de lokale netbeheerder krachtstroom (3-fasen) naar je huis toe aan te leggen als je nog maar 1-fase hebt.
Of... een aggregaat in je PSU. Hoewel, dan krijgt je pc wel een uitlaat.
Of met een paar zonnepanelen en mag je alleen nog maar spelen als de zon schijnt :Y)
Dan moet je pc wel buiten staan. Aan de andere kant, je bent dan buiten aan het spelen. En dat is gezond!
Of een portable mini kernreactor die je naast je PC kunt zetten ;) /s
Ironisch, maar in de Verenigde Staten beginnen high-end systemen wel tegen de limieten aan te lopen.
Onze groepen in de meterkast zijn doorgaans 220V en 16A, theoretisch is dat dus per groep max 3500Watt,
In de VS is bij wat oudere huizen 110V en 10-15A best gebruikelijk, oftewel1320Watt, ik kan me herinneren dat Jayz2cents hier al een keer iets over gemaakt
Mocht je dus een high end pc met bijv. 2x3090ti's en straks met een 13th gen i9 hebben, heb je kans dat je stop eruit vliegt.
Leuk maar in de praktijk ga je hier toch niets aan hebben? 350 watt is niet te koelen met een normale oplossing (lucht, water) voor langere tijd? Dit gaat een turbo tdp worden voor maximaal een paar seconden?

Of moet je dit zien als het maximale verbruik die het platform kan creëren (na een flinke overclock). Zoals de powerlimits in de Nvidia GPU’s?

[Reactie gewijzigd door Tortelli op 18 augustus 2022 12:35]

Intel heeft het mooi ingewikkeld gemaakt. Je hebt een aantal verschillende power settings:
Processor Base Power
Een soort theoretisch verbruik bij een 'typische workload' volgens een algoritme dat Intel niet vrijgeeft. Dit zou een soort van typisch verbruik moeten aangeven wanneer de CPU bezig is.

Maximum Turbo Power
Dit is het maximaal verbruik dat toegestaan wordt voor een onbepaalde tijd tenzij er bepaalde limieten overschreden worden (bijvoorbeeld de CPU die te warm wordt).

Deze waarden kan je vaak configureren in het BIOS of kunnen geconfigureerd worden door de OEM, net zoals op een laptop.

En in dit artikel wordt gesproken over een modus die op bepaalde moederborden geactiveerd kan worden die de CPU toelaat om nog meer stroom te verbruiken om een hogere kloksnelheid aan te houden. Uiteindelijk is dit een manier om meer prestaties vrij te geven een gebruikers die dit nodig hebben of bereid zijn om een hoog verbruik te accepteren. De laatste prestatiewinsten zijn vaak de duurste in termen van stroomverbruik.
Ik vind de 9900k al een lastig te koelen cpu. Het gaat wel tot zo'n 150 watt maar daarboven wordt het gewoon lastiger.
Zelf ook een 9900k draaien met (lichte) overclock. Het is een heethoofdje.
Genoeg cpu's die lastig te koelen zijn, mijn 5800X3D gaat ondanks een vrij laag verbruik (hij komt volgens hwinfo64 niet eens in de buurt van het maximale 142W PPT) ook met een AIO zo richting de 80c tijdens een Cinebench run.
Wat is de 'standaard' TDP van de 13de generatie i9's? Is daar al wat meer over bekend? Een TDP van 350W voor 15% meer performance (valt nog te bezien) lijkt mij niet rendabel al is het voor een paar seconden. Indien dit voor een langere tijd is, zeg 10 minuten, welke type koeling (lucht, water, phase-changer) is vereist om stabiel 5.8ghz te halen?

Edit: additionele tekst toevoegen, kleine typo's er uit gehaald.

[Reactie gewijzigd door DanielBnl op 18 augustus 2022 12:40]

Een 45% hoger verbruik voor 15% prestaties vind ik persoonlijk echt zonde.

350 watt voor de cpu 600 voor de gpu waar gaat dit heen :/
Ik vind 300-400 voor het hele systeem al meer dan voldoende hitte extra in de ruimte waar je zit.
Een voordeel voor meer hitte is, je hoeft je radiatoren in iedergeval niet meer aan te zetten. Leuk voor de wintermaanden :)
Daar heb ik een airco (inverter dus warmtepomp) voor die 3-4 watt aan warmte uit 1 watt stroom haalt. Dat is veel efficiënter. Zolang het geen - 10c wordt hoef ik niet met gas bij te stoken.

[Reactie gewijzigd door Astennu op 18 augustus 2022 12:52]

Ik ben geen natuurkundige maar een rendement van 300% lijkt me onwaarschijnlijk.
Het zit 'em in de naam; warmtepomp. Ze verpompen (verplaatsen) warmte, ze genereren het niet.
Met 1W aan stroom kan je dus >1W aan warmte van A naar B verpompen. ;)

--

Ik vind het zelf in ieder geval nergens meer over gaan, waar zijn de tijden dat hardware meer ging doen met minder, of op z'n minst meer met het zelfde?

Hoe staat de performance van de huidige generatie Intel/AMD processoren er voor wanneer je het verbruik limiteert tot het maximum van de vorige generatie? Idem met de vorige generatie op de generatie daarvoor?

Het IPC lijkt aardig te stokken van elke nieuwe generatie t.o.v. de generatie ervoor wanneer je het verbruik er in mee neemt..

[Reactie gewijzigd door D4NG3R op 18 augustus 2022 13:33]

Ik vind het zelf in ieder geval nergens meer over gaan, waar zijn de tijden dat hardware meer ging doen met minder, of op z'n minst meer met het zelfde?
Dit zijn de desktopprocessors, en de snelste CPU's hebben altijd steeds meer gevraagd van het systeem, da's niet plots anders nu. Mijn eerste CPU's hadden niet eens een passieve koeler, toen kwam passief, daarna heel irritante miniatuur koelertjes (hoge frequentie, hoge tonen). Daarna begonnen de koelblokken te vergroten en te verfijnen, gevolgd door de fan en natuurlijk water koeling systemen. Nu hebben we heatpipes en closed loop systemen.

Als je niet op het topje gaat zitten dan gaan de requirements heel snel naar beneden gelukkig. Dan heb je wel de nieuwste tech, maar niet de extremen die een top-CPU met zich meebrengt. Nooit anders gedaan...
Als ik het goed begrijp, dan wordt die warmtepomp met stroom gevoed, en die haalt dan per watt 3-4 watt uit de omgeving en pompt die in je eigen huis. Dus het gaat hier niet om rendement maar om transportvermogen. Net zoals je met een benzinepomp met laag verbruik een veel grotere hoeveelheid brandstof wat betreft verbruik kunt verplaatsen.
Je vergelijking gaat mank.
Een airco VERPLAATST warmte en gebruikt daar energie voor,

Als je 1 kW gebruikt om 3 kW teverplaaysen heb je op een bepaalde locatie meer dan 4 kW.
Ten eerste de transport, verplaatste warmte, maar ook de eigen warmte.

Dit gebeurt dus vaak in steden,
door warmte te verplaatsten vanuit (slecht geïsoleerde) huizen/appartementen, wordt het met name beton/asfalt veel warmer dan onder normale omstandighedenen en die warmte krijg je er bijna niet meer uit.
Warmtepompen kunnen meer dan 100% rendement halen, omdat de energie die je er in stopt niet wordt gebruikt om direct warmte te maken, maar om warmte te transporteren.
Dat komt waarschijnlijk omdat je niet beseft hoe een warmtepomp werkt. De warmte uit de buitenlucht is in feite gratis, het apparaat verbruikt.
Toch is het zo. Een warmtepomp verplaatst de warmte. Met 1 watt stroom, kun je dus 3 watt aan warmte verplaatsen.
En is dat alleen op zonnige dagen of ook in de overige seizoenen?
Alle dagen. Dit is gewoon het concept achter airco's, maar ook achter koelkasten en vriezers. Een vriezer stopt ook niet met werken als het binnen geen -20 graden is (gelukkig).
Maar een vriezer moet wel harder werken (meer energie verbruiken) bij 30 graden dan bij 15 graden.
ja en nee.
Hij hoeft niet harder te werken.

Het kost alleen meer tijd om de gewenste temperatuur te bereiken, en de pauses van de motor worden korter. Kost dus wel meer energie. maar toch anders
Ook 'koude' lucht bevat een hoop warmte wat afgetapt kan worden. Tot zo'n -20-25 haal je een COP boven de 1.

Leuke video van Technology Connected: https://www.youtube.com/watch?v=7J52mDjZzto

[Reactie gewijzigd door D4NG3R op 18 augustus 2022 13:11]

Er is een leuke video over heat pumps en waarom ze zo goed zijn op YT van Technology Connections:

https://www.youtube.com/watch?v=7J52mDjZzto

Het kijken waard!
Ik ben geen warmtepompspecialist, ik ga uit van een ideale omstandigheden.
Hangt ook beetje af van je systeem. Hier zit ik met een warmtepomp die gemakkelijk een rendement van meer dan 500% haalt. :)
De achilleshiel van lucht warmtepompen is 0..4°C met een hoge luchtvochtigheid. Dan staat hij namelijk veel van de tijd te ontdooien. Voor de rest is het een efficiëntere manier van verwarmen dan zelfs een cv ketel op gas.
Bij hele hoge of hele lage temperaturen is coolen en verwarmingen natuurlijk minder efficiënt maar daarom geef ik ook 3-4x op ipv de max van ik geloof 4.4 die hij zou moeten kunnen bij de ideale temperatuur.

En inmiddels zijn er ook airco's die nog efficiënter zijn.
Toch is het zo: Een warmtepomp koelt water af, de energie om je ruimte te verwarmen komt dus maar deels uit de elektriciteit, de rest uit het afgekoelde water.
Hier wordt dan ook geen rendement van 300% gehaald. Er wordt 1 Watt stroom verbruikt om 3-4 Watt warmte te verplaatsen van punt A naar punt B. Men kan zeggen dat op punt A er een 3-4 Watt warmte hangt, deze daar wordt weggehaald en terug wordt afgegeven op punt B, maar hier wordt dan 4-5 Watt afgegeven.
Kan je mij de gegevens (merk/type) daarvan doorsturen in pm aub?
En toen was het zomer, buiten 35 graden, dus daar niet uit te houden, en je wilt gamen. Moet je drie extra aircos aanzetten om het koeler te krijgen
Zet binnenkort 2 high-end gamesystemen in dezelfde kamer neer en je 16A klapt eruit in de meterkast ;)
In the US hebben ze daar nu al last van doordat ze daar maar 115v gebruiken is de max +-1600watt. Daar moet je al een losse groep gebruiken voor een high end systeem met Bv een 3090 Ti en er zijn daar mensen die al issues hadden dat die er uit klapte dit soort dingen helpen dan niet.
True.

De vraag wordt al wat de verbeteringen zijn bij Intel als overclocken soortgelijke resultaten geeft.
Standaard is volgens de geruchten voor de 13900K, net als de 12900K, 125W PL1 (Base Power / 241W PL2 (Multi Core Turbo). Daar zou dan mogelijk deze modus bovenop komen, al is het de vraag of dit een modus is die officieel vanuit Intel beschikbaar komt, of dat dit een trucje is van de moederbord fabrikanten die alleen op de duurste moederborden beschikbaar zal zijn.
De PL2 zal rond de 240-250W liggen denk ik. Intel gebruikt terecht geen TDPs meer voor de i9.
Anoniem: 159816
18 augustus 2022 12:47
Ik vind persoonlijk de stijging in het verbruik op desktop systemen steeds extremer worden. Nu zal het bij wat office werk niet merkbaar zijn (want geen load), maar een paar uurtjes gamen is wel wat prijziger aan het worden. De TDP van een GTX970 was bijvoorbeeld 140-150W en een RTX3070 zit al op 220W, dat is zo'n 50% meer. Gamen op een modern systeem is alsof je constant een camping waterkoker hebt draaien.

Voor rendering enzo is het allemaal prima, want je bent ook gewoon eerder klaar. Maar met gamen zit je meestal op je maximale instellingen, want er zijn weinig mensen die lagere instellingen kiezen én ook nog eens een FPS cap gebruiken.

[Reactie gewijzigd door Anoniem: 159816 op 18 augustus 2022 12:49]

want er zijn weinig mensen die lagere instellingen kiezen én ook nog eens een FPS cap gebruiken.
Dat ligt dus meer aan de user dan aan de hardware ...
M'n vriendin zet wel eens een kom met deeg op m'n PC als ik aan het gamen ben, maar met dergelijke temperaturen kan je zowaar de lasagne in de kast zetten.
Ah, om het deeg te "Ryzen"?

Sorry, deze woordgrap kon ik niet aan mij voorbij laten gaan :+
:Y)

Meestal heb ik er wel een gevat antwoord op, maar deze valt niet te toppen.

Beetje hetzelfde probleem dus als wat Intel heeft de laatste jaren. O-)
Oeh, een vriendin die zelf bakt. Nice catch!
De spreekwoordelijke speld in de hooiberg ;)
Gelukkig heb je voor gamen niet perce een i9 nodig.

Ik ken (qua Intel users) voldoende mensen die een i5 pakken in de xx400 of xx600K reeks, en zo'n 12400 of 12600K verbruikt fors minder dan een i9.

Qua AMD is dat nu nog een ander verhaal, de huidige chips zijn nog best zuinig maar als ik naar de 7xxx series overstap dan wordt het waarschijnlijk een 7700X (nu heb ik een 3700x) vanwege de core aantal.

Maar ik ben het wel mee eens dat het een beetje TE hard gaat in de high end segment, recent nog discussie gehad met iemand online hoeveel ellende die had met het koelen van zijn i9 op max performance, tot op het niveau dat hij (naar eigen zeggen) een andere kast moest halen.
Dat komt omdat de i7 en i9 meer cores hebben die niet gebruikt worden tijdens gamen.
anno 2022 is het nog steeds zo dat er maar 2 tot 4 cores gebruikt worden (max 8 threads) op een uitzondering na en daar gaat geen verandering in komen voorlopig.

Tegen de tijd dat 8 cores gebruikt wordt is de processor al zwaar verouderd dat die het niet meer trekt en gaat een i7 als i9 evengoed op zijn bek, nog steeds is de videokaart het belangrijkste bij gamen.

Het heeft al ontiegelijk lang geduurd voordat games daadwerkelijk met dual en quad core support kwamen.

[Reactie gewijzigd door mr_evil08 op 18 augustus 2022 15:05]

Ik ben overgestapt van een gtx1070 die +-100% bezig was om 60fps te halen in division2 op 1440p naar een 3060ti die maar op 40% draait terwijl ik de settings ook nog eens op ultra gezet heb. Ik heb het niet gemeten maar denk niet dat het verbruik hoger zal zijn.

Dit soort cpu’s ga ik wel aan mij laten voorbijgaan, momenteel game ik nog op een 6600K maar vier cores en vier threads is erg krap geworden dus overweeg om die te vervangen door een systeem met een 5800X.
Betekent deze hoge wattages nou dat de rek eruit is bij x86 processoren? Risk processoren, o.a. de M1 lijken meer power per wattage te leveren (of zie ik dit verkeerd)?
Zo'n m1 bevat gewoon meer dedicated hardware, lees meer transistoren voor specifiek taken (accelerators) dan x86.

Dus afweging hoeveelheid gespecialiseerde transistoren of veel algemeen units die vrij hoog in de frequentie/efficientie schaal zitten
Ik denk dat dit heel weinig te maken heeft met de instructieset van de CPU. Tegenwoordig staat de interne instructieset van een processor los van de processor architectuur. De instructies worden door een soort vertaler op de chip omgezet naar een RISC achtige instructieset die de echte chip 'spreekt'.
hangt van je werklast af
Een grootte website kun je het beste draaien op een server met 1024 zeer kleine zuinige cores.
Een spreadsheet draai je het beste op een snelle single core op 10GHz ofzo.

verder zijn het vooral de Intels welke wat moeilijker omhoog kunnen.
Wanneer intel over zou stappen naar een nieuw ontwerp zoals AMD dat ook heeft gedaan van de FX naar de Ryzen, dan zou Intel ook weer echte stappen kunnen zetten.

Maar een ander zal vast een zinniger antwoord geven.
Sinds de Pentium (Pro?) uit 1995 zijn x86 RISC-like (inmiddels dus al zo'n 30 jaar). Dwz de 'CISC' instructies worden omgezet naar een soort RISC instructies op de CPU.

Probleem bij puur RISC, en ook ARM, is dat applicaties meer instructies nodig hebben om hetzelfde te bereiken. RISC, en dus ARM, is ook zeker niet zaligmakend. ARM CPU's gebruiken bijvoorbeeld meer geheugen. Dat is waarschijnlijk ook de reden waarom Apple het geheugen moest meebakken in de M1 CPU om het enigszins te laten performen op het niveau van de x86's.
Dit zijn processors bedoelt voor de power user en niet voor Henk en Ingrid net als je mensen hebt met een sportauto die ook niet voor iedereen bedoelt is.
Het is meer voor enthousiaste gamers dan voor power users. Al kan je er ook wel een entry level workstation mee maken als je een W-chipset moederbord er bij koopt voor sideband ECC support.

En uit eindelijk kan iedereen dit het wil en kan betalen het kopen. Inclusief Henk en Ingrid. Er gelden geen kwaliteitseisen.

[Reactie gewijzigd door PjotterP op 18 augustus 2022 12:58]

volgens mij is dit voor gamers totale overkill en is dit meer op professionele gebruikers gericht ;-)
volgens mij is dit voor gamers totale overkill en is dit meer op professionele gebruikers gericht ;-)
Het hangt van je usecase af. Heel veel segmentatie door labels als ‘professioneel’ / ‘consument’ is behoorlijk arbitrair / kunstmatig door fabrikanten.

[Reactie gewijzigd door PjotterP op 18 augustus 2022 13:00]

Ik denk niet dat er een game is die een all core turbo van 5,5 gebruikt. Lijkt me eerder dat die 2 of 3 cores op 5,8 prefereren.
Dan loop ik met een extreem grote boog eromheen :)
Het klinkt als terminologie die op gamers gericht is.
Als je echt single threaded software draait, zoals ouderwetse games, dan kan het wel wat uitmaken,
maar anders is het echt weggegooid geld.
Dan heb je weinig aan die E-cores tho :|
Niet elke thread hoeft per se evenveel werk te doen.
En OS taakjes kunnen daar paim heen. Zitten ze je eigen software niet in de weg.

Het blijft raar, die E-cores, maar er zijn best wel gevallen denkbaar waar ze iets nuttigs kunnen doen.
De E-cores zijn heel nuttig in Windows als je een beetje aan browsen of Office aan het doen bent.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee