Webwinkel: Acer-monitor met 4k-resolutie en G-Sync komt in juni uit

De Acer Predator X27 is opgedoken in een webwinkel. De monitor met 4k-resolutie, G-Sync en hdr komt volgens de winkel op 1 juni uit. Het scherm zou aanvankelijk vorig jaar uitkomen, maar werd meermaals uitgesteld.

Het aanbod is verschenen op de Amerikaanse webwinkel Newegg, waar hij voor 1999,99 dollar kan worden gereserveerd. De website geeft aan dat de monitor nog niet op voorraad is, maar schat dat dat op 1 juni wel het geval is.

De Acer Predator X27 is een van de eerste 4k-monitoren met G-Sync. Hij heeft een maximale verversingssnelheid van 144Hz en een responstijd van 4ms. Het paneel is uitgerust met een quantumdot-laag, wat het contrast ten goede zou komen. Verder heeft hij een maximale helderheid van 1000 nits en ondersteunt hij hdr.

Acer kondigde de monitor vorig jaar in april aan en beloofde hem toen in november uit te brengen. Het bedrijf wist dit echter niet voor elkaar te krijgen en stelde de monitor later uit tot het eerste kwartaal van 2018. Tijdens CES dit jaar bleek dat die doelstelling ook niet gehaald zou worden. De Asus-tegenhanger PG27UQ is ook vertraagd, al geeft webwinkel CentralPoint aan dat die vermoedelijk vanaf 8 juni verkrijgbaar is.

Acer Predator X27
Acer Predator X27Acer Predator X27Acer Predator X27

Door Emile Witteman

Nieuwsposter

20-05-2018 • 13:10

102 Linkedin Whatsapp

Submitter: MAX3400

Reacties (102)

102
97
82
3
0
4
Wijzig sortering
Aan de hand van het modelnaam mag ik er van uit gaan dat het een 27 inch scherm is?

Vraag me af dat niet wat klein om 4k als groot verschil te ervaren. Hangt van je kijkafstand af natuurlijk maar toch.
het is inderdaad een 27". Ik heb momenteel een 27" QHD (2560*1440) en het verschil met full HD merk je al, dus dan zal je dat met 4K zéker merken (als je uiteraard dezelfde content afspeelt)
Ja ik heb ook een 27 inch 1440p scherm met gsync op 144hz en dat is in mijn ogen echt dag en nacht verschil met 1080p. Moet eerlijk toegeven dat ik zo'n scherm nog nooit op 4k heb gezien dus vandaar ook een beetje mijn vraag. Ben benieuwd waar het punt van diminishing returns ligt.
In mijn mening is de probleem niet of je het verschil ziet of niet (je kunt het op zulke groottes nog best goed zien), maar dat je windows niet op 100% scaling kunt draaien op een 27 inch 4K scherm.

Ik heb een 27 inch 4K scherm, en 125% Desktop scaling is de laagste dat ik kan verdragen. Daaronder begint alles wat te klein te worden. En windows scaling is echt troep!

In mijn mening is voor een monitor 24-25 inch 1440p de "sweet spot". Dus ik wacht op een nieuwe iteratie van schermen en denk in die richting een aankoop te doen.

Dus als ze nu deze schermen (Quantum dot, 4K, 144Hz, G-Sync, HDR) uitbrengen met een 1440p paneel, denk ik dat het een interessantere optie zal zijn, maar deze schermen zijn belachelijk duur. Er blijft ook het feit dat 4K 60Fps voor gaming nog steeds moeilijk te behalen is voor AAA titles, laat zijn 144Fps
De oudere programma gebruiken font size van 10pixels.
Dat wordt dus heel klein.
Desktoppublishing software zal dat wel allang opgelost zijn.
De nieuwste OS zijn zeer PPI aware software volgt geleidelijk.
Maar mijn hoofd gebruik is souce code en dan is grotere font op enorme canvas fijner. En is de context van de code wat daar staat veel belangrijker dan hoe de font erbij staat.

Een 27" touch screen 4K vkak boven toetsen board 45graden gekanteld zou nog voor mijn 32" passen gezien de wat grotere kijkafstand.
Ik heb een 27" 4k scherm op mijn bureau staan, dat verschil zie je echt wel, je zit er dan tenslotte met je neus bovenop. :+
haha ja 4k is awesome alleen ik wacht daar nog wel even mee tot zowel de monitoren wat goedkoper ervan zijn als dat de videokaarten wat hogere fps halen op 4k :P

momenteel 1440p 144hertz en gsync. Helaas wel een TN paneel, zit te wachten op een betaalbare HDR met VA paneel met dezelfde specs :P
Inderdaad, en dat graag ook als 32+" widescreen

[Reactie gewijzigd door Takkie2024 op 20 mei 2018 21:25]

Ik heb ook een tijdje op een 27" full HD gewerkt, maar daar zag ik de pixels zo duidelijk dat het begon te irriteren. 24" is mi wel het maximum waar je nog op kunt werken. Of je scherm moet op een afstand van 1 1/2 meter of meer staan natuurlijk.
Zelf werk ik nu op een 24" scherm. Als ik (nu wel met leesbril) dicht op het scherm kruip zie ik de pixels ook nog, maar op normale werkafstand (70 à 80 cm) zie ik de pixels niet meer. Voordeel is dan gelijk dat ik mijn leesbril niet meer nodig heb om scherp te kunnen zien.
Anoniem: 321896
@DFKT20 mei 2018 16:07
Dan lijkt me het gebruik van 31.5-37" 4k die je net wat verder weg hebt staan toch wat fijner werken. De pixel dichtheid is misschien wat minder maar ik denk niet dat je het verschil tussen 4k op 27 of 32 inch nou écht kunt zien.

Typte hij op zijn telefoon met 4k scherm 8)7
Ik heb liever 42" maar mijn 32" 1440 zit ook wat verder af.
Gebruik van antialiasing zal ook minder zijn op een scherm met veel kleinere dot pitch.
Ik denk dat dat effect wel eens tegen kan vallen. Je gaat het namelijk tegelijkertijd wel voor veel meer pixels berekenen.
Anoniem: 310408
@grasnek20 mei 2018 17:18
Bierschuit heeft absoluut gelijk en veel mensen zien dat over het hoofd. Je kan vaak met 2x AA toe en op kaarten waar AA niet erg snel is (bijvoorbeeld de 1070) maakt dat veel verschil. Überhaupt hebben de meeste mensen teveel AA staan omdat ze het bekijken in pause or op screenshots. Bij bewegend beeld heb je er altijd veel minder last van.
Wat ik bedoel is je kunt AA wel lager zetten, bijvoorbeeld van 8x naar 4x of 2x laten zakken, maar als je van 1080p (1920x1080=2.073.600) komt, dan is 1440p (2560x1440=3.686.400) bijna 2x zoveel pixels, als je 1080p met UHD (3840x2160=8.294.400) vergelijkt heb je het over 4x zoveel pixels..

Is de hoeveelheid werk die je GPU verzet bij verschillende AA settings net zo lineair? Is 1080p 8xAA vergelijkbaar met QHD 4xAA en UHD 2xAA? Dan laat je alle andere effecten die je kaart moet berekenen nog buiten je vergelijking..
Precies, ik heb 2x27" naast elkaar. 1 FHD en 1 UHD. Ik zit op een armlengte afstand. UHD zonder AA ziet er beter uit dan FHD met AA. Maar daar blijft het bij. Eerlijk gezegd zie ik op 27" geen verschil tussen 1440p en 2160p. Heb verschillende games geprobeerd.
Mijn mening is dat op dit formaat 1440p beter is, omdat ik nu in windows schaling nodig heb.

De reden dat ik dit scherm interessant vind is vanwege mijn ps4 pro en pc combinatie.
De ps4 kan geen 1440p output leveren en UHD met checkerboard (ik hou mezelf niet voor de gek, ps4 pro rendert tussen 1080p en 1800p) ziet er beter uit dan supersampled 1080p.
Met de PC kan ik dan op 1440p gebruik maken van de hoge refresh en g-sync.
4k gamen met een hogere fps (wat je eigenlijk wilt op een 144 hz scherm) zou ik denk ik sowieso niet op een 1070 proberen. Of de Gsync moet heel veel helpen op dat vlak.

Ik vraag mij sowieso een beetje af wat de beoogde doelgroep is met zulke prijzen. Meeste 'gangbare' (lees: niet 4k) Gsync monitoren zijn al belachelijk duur t.o.v monitoren met Freesync support, maar het lijkt mij dat Acer zichzelf hier helemaal mee de markt uit prijst?
Een gradient maken op overgangen. Dat is AA simplistisch gezegd.
En een blur betekent minder goed zien.
Als er wetenschappelijk onderzoek is gok ik dat de mensen zonder blur/AA beter scoren dan met blur/AA.
Alleen zul je op 27" met een dergelijke resolutie wel scaling moeten gebruiken, dat is ook niet alles, vooral in een OS waar de applicaties daar vaker niet dan wel voor gebouwd zijn en het er dus niet uitziet.
Je kan op een 1440P resolutie scherm op die grootte ook gewoon iets als supersampling gebruiken en dan heb je zo'n beetje hetzelfde effect.
Alleen het zal mogelijk iets scherper beeld leveren want meer pixels.

[Reactie gewijzigd door CriticalHit_NL op 20 mei 2018 15:21]

Ik gebruik een 21 inch en zie nog steeds pixels... 1920 x 1080 resolutie. Ofwel... 27 inch lijkt mij zeker niet te klein om het verschil te ervaren.
"Pixels zien" is eigenlijk dan ook geen goede methode. Het gaat erom of je 2 naast elkaar liggende pixels kunt onderscheiden. Dit kun je doen door een plaatje met afwisselend witte en zwarte lijnen van 1 pixel te bekijken (zonder inzoomen uiteraard). Zodra je een grijs vlak ziet ipv de afzonderlijke lijnen dan zit je op grens van het oplossend vermogen van je ogen.
En nu eens voor de grap een volledig zwart scherm met één pixel wit. Of slechts een zwarte lijn op een verder wit scherm.

Ik stel dat terwijl die lijntjes allang een grijs vlak vormen, je die ene pixel of lijn nog steeds heel duidelijk kunt zien. Je ogen/hersenen zijn wat dat betreft heel goed in het invullen/afmaken van wat ze denken te zien. En hoog contrast zijn ze heel goed in.
Ja, maar die ene pixel zien zegt dus heel weinig over hoeveel detail je kunt zien. Alleen of er vanuit dat ene punt genoeg fotonen uitgestraald worden om een lichtsensor in je oog te triggeren. Of je dat dan nog ziet hang af van contrast (donkere kamer, backlight bleeding) en hoe hoog de helderheid van je monitor staat.

Het gaat erom of, wanneer je twee even grote schermen naast elkaar zet, je nog verschil ziet als de ene HD en de andere UHD is. Niet of je een enkele pixel kunt zien of niet.
Nou de grens licht uiteraard niet sherp op retina cel 1:1 op pixel er zal altijd niet optimaal matchen laat staan verschoven. Ook is de cel density in center hoger dan er buiten. Ook is de cel formatie anders.
Wat neer komt dat er grens is dat met paar pixel op de kleinste centrale cellen de grens ligt.

1080p zit nog mogelijk onder de grens maar met 1440p kom je er dicht bij.
Daarnaast geld ook MOA dus kijk afstand is belangrijk.

En mijn geval staat mijn monitor ver buiten handberijk. Dus echte meter.
Iemand anders hebben zelfs binnen handberijk staan. 60cm vs 120cm en je hebt factor 2 en
In mijn geval is 32" 1440 tov een 60cm kijker gelijk aan 16"
Ik heb dus schaling nodig al met .

Bij tablets en smartphone en laptops ligt de kijkafstanden minder ruim.
TV is nog gevarieerder.
55" op 3 meter waar ander 32" op 6 meter kijkt.

Sherm van VR paneel tot stadion scherm schaald het door.
Daar zul je zelfs met 8K niet in de buurt komen, tenzij je echt meters ver weg zit, toch? Het voornaamste verschil zit erin hoe ‘rond’ rond is. Bijvoorbeeld letters bestaan veelal niet uit rechte lijnen en zijn dus veel makkelijker (sneller) en prettiger leesbaar met een hogere resolutie.
Muah, valt tegen! Ik heb de test van Atomsk gedaan op een 24" 19:10 monitor met resolutie 1920x1200. Vanaf ca. 120-140cm afstand zie ik eigenlijk geen inidividuele lijnen meer (en ja, ik heb m'n bril op).
Anoniem: 420148
@AtlAntA20 mei 2018 13:44
1920x1080 op 27inch is echt pixels tellen, dus 4K merk je wel.
Ik heb een 28 inch 4k scherm en moet zeggen, fatsoenlijke werkruimte :) browser/chat/email links, Android studio rechts, en genoeg ruimte voor logs aan de onderkant :)

Je kunt ook 4k met wat os schaling, wat bij Windows erg goed werkt! Dan is alles wat groter maar wel extra scherp vanwege de 4k. Voor gamen lijkt het me ook prima, alles scherp, maarja moet je wel een beest van een machine hebben om hem goed aan te sturen. Maar 4k schermen werken ook goed met 1080p resolutie, dus je kan altijd een stap terug naar full hd
Het was voor mij goed zichtbaar, met als bijkomend voordeel dat je AA uit kan zetten en zo wat cpu/gpu kracht vrij maakt.
Zelfs op mijn 4K@24" zie ik nog duidelijk pixels.
4K op een 13” laptop is ook veel fijner dan FHD. Dat gaat natuurlijk vooral over dingen buiten games waarbij je statische content zoals tekst of afbeeldingen bekijkt, maar ik neem aan dat zelfs gamers dat ook veel doen.

Probeer het gewoon eens ergens om een pdf of word document te lezen in 4K vs FHD. Ik durf te wedden dat het ongeveer dezelfde ervaring is als van 1024x768 naar FHD, letterlijk een eye-opener.
60Hz, 4K, Freesync, IPS, HDR, begint volgens de pricewatch bij 450 EUR. Niemand gaat mij vertellen dat die Nvidia chip en 144Hz ~1500 EUR waard is.
Ik ben het met je eens. Dit soort prijzen voor een monitor vind ik té absurd voor woorden. Ik begrijp dat we het hier over een product hebben in de 'high-end/enthusiast' range, maar dan nog ...

Maar goed, het toepassen van G-sync in je product kost een fabrikant nu eenmaal veel geld (royalty's, de module etc.) en dat geld moet natuurlijk ergens terugverdiend worden ...

Ik had graag gezien dat G-sync inmiddels wat meer gemeengoed zou zijn en daarmee financieel een stuk toegankelijker. Je zou immers verwachten dat het doorontwikkelen van de techniek zou leiden tot een goedkoper product. Echter, niets is minder waar. Wat dat betreft heeft AMD er slim aan gedaan om hun alternatief, 'FreeSync', open source te maken. Daar kan Nvidia nog wat van leren, maar ik vrees dat dat niet gaat gebeuren.
De fabrikanten doen er net zo hard aan mee. Ze hadden namelijk ook gewoon een FreeSync-model op de markt kunnen brengen. Maar dat doen ze dus niet ...

nGreedia heeft gewoon een veel te dikke vinger in de pap door hun dominante marktpositie en daar bukken de fabrikanten voor. Net als ze deden met dat GPP.

En dat is ook de reden dat de prijs van "G-Sync" niet omlaag gaat. Ze kunnen vragen wat ze willen en de fabrikanten berekenen het gewoon door.
De fabrikanten doen er net zo hard aan mee. Ze hadden namelijk ook gewoon een FreeSync-model op de markt kunnen brengen. Maar dat doen ze dus niet ...
Goh... ze brengen geen adaptive sync in deze vorm uit die op meer dan 80% van de gaming-GPUs op de markt niet werkt en op de GPUs waarop het wel werkt is 4K60 eigenlijk al te hoog gegrepen. Ja dat is echt een hele vreemde keuze. :z

[Reactie gewijzigd door Vayra op 21 mei 2018 11:31]

Voor gamen zou je nog altijd omlaag kunnen scalen voorlopig he (is niet perfect uiteraard maar toch). En instellingen omlaag is ook geen probleem. Bovendien kunnen de meeste kaarten de e-sports-titels makkelijk aan, ook op 4K. En intussen heb je wel het voordeel van 4K (en vloeiendere beweging) op je bureaublad voor programma's en video.

Het zit er overigens best in dat AMD redelijk binnenkort ineens met een flink snellere kaart komt.

Als je het trouwens over markt hebt dan is er eigenlijk maar 1 kaart die op 4K boven de 60Hz echt wat te melden heeft en dat is de 1080Ti. Dus hetzelfde geld voor het nVidiakamp.
Zou allemaal kunnen maar het gaat erover dat het marktaandeel niet uitnodigt om moeite te doen voor het implementeren van FreeSync op dit model.

Enne... AMD 'zou met een snellere GPU kunnen komen'... dat zou zeker kunnen maar dat riepen we twee jaar geleden al.

[Reactie gewijzigd door Vayra op 22 mei 2018 20:52]

Zit wat in uiteraard maar alsnog geldt dat voor oudere games (e-sports etc.) de AMD-kaarten bepaald niet waardeloos zijn.
Bovendien hoeft je videokaart niet in staat te zijn om op de volle 144 Hz te renderen teneinde een positief effect te merken van 144 Hz. Zowel met als zonder de mogelijkheid van een adaptive sync-technologie.

Er is dus wel degelijk een markt al zal die uiteraard niet zo groot zijn als bij het nV-kamp.

Maar sowieso zal nV het de fabrikanten "verboden" hebben om binnen afzienbare tijd een freesync-monitor met dit paneel uit te brengen.
Deels. De 1000 nits icm 144hz is is imo een groter deel van de 1500 dan de gsync. Het is beter wat meer gelijk waardige modellen te vergelijken voor de daadwerkelijke kosten van g vs free sync
Naja, de 144hz markt is nogal dun gezaaid en behoorlijk aan de prijs.
Ik vraag me ook af met welke videokaart je dit scherm wil gaan aansturen. Zit nu met een 1080ti OC op een 4k 60hz scherm (dan ga je al snel V-Sync gebruiken tegen tearing). Ik haal bijvoorbeeld in PUBG makkelijk 100+ FPS. Maar in een andere game kan het zo maar ineens 70 wezen. Ik gok dat het vooral interessant is voor supersnelle games zoals CS:GO? Dat speel ik zelf al een hele tijd niet meer, maar gezien de tickrates in PUBG vs CS:GO dan moet er bij die laatste dus een kleine prestatiewinst zijn.

Wellicht dat Volta er meer uit weet te trekken :).
SLI werkt namelijk voor games gewoon nogsteeds niet helemaal lekker en daarnaast zijn er alleen specifieke games die dat ondersteunen. Dus stel men neme 2x een 1080ti oc, dit scherm en wat betere koeling op de GPU dan ga je met gemak over de 4K in euro’s. Dan de rest van je systeem nog.

Verder mooie ontwikkeling dat het eraan komt, maar mainstream zal nog wel een jaar of misschien 2 duren.

[Reactie gewijzigd door Kecin op 20 mei 2018 13:37]

Met DirectX12 zou het multi-GPU setup gedoe net moeten versimpelen. Laat DirectX de SLI/CrossFireX afhandelen, hoef je er niets voor te doen in je game.
Keep dreaming. Dat ligt bij de developers en SLI support is tanende sinds we DX12 titels zien uitkomen. Multi-GPU is aan het uitsterven.
Is het ook niet.dit zijn early adaptor prijzen vermoed ik.
Denk het niet, de ultra wides zijn ook nog steeds dezelfde prijs, zelfs mij 144hz 1440p GSYNC monitor is qua prijs nog zo goed als hetzelfde en ik heb die gekocht toen hij zo goed als net uit was wereldwijd.
Ik heb in 2015 dit scherm gekocht:

pricewatch: Asus MG279Q Zwart

Hij was toen 600 euro en 3 jaar later nu 575.
Dit is dan een Fresync 144hz 1440p freesync met IPS.
Waardes zelf dalen niet echt hard.
Vergeet de 1000cd/m niet. Die zie ik er niet tussen staan en dat is (naast gsync) een van usp.
Dat lijkt me peak brightness dankzij de HDR standaard
De HDR standaard bestaat niet. Er zijn er meerdere namelijk. Van alle monitoren met een HDR vinkje in de pricewatch zijn er maar 6 met 1000 nit. 1 als je ook nog de refreshrate op 100hz+ zet. En dat is zonder deze Acer. Van eerdere zes zijn 4 groter dan 32". En dat vind ik niet meer een monitor formaat. Dus als je HDR, 1000 nit en hoge refreshrate wil. Dan heb je maar twee keuzes. X27 en Asus ROG Swift PG27UQ.
Freesync of Gsync nog niet eens meegenomen.
Beter kwaliteit scherm paneel qua kleuren, contrast etc, full array local led dimming voor fors hoger contrast, 10 bit kleuren ondersteuning. Dan Gsync module met een zeer goede scaler die je niet terug ziet in basis monitoren en 144hz.

Het paneel wat jij aanhaalt komt op elk punt op resolutie na niet in de buurt van dit paneel.

Hoe local led dimming werkt : https://www.rtings.com/tv...ure-quality/local-dimming

[Reactie gewijzigd door Sn0wblind op 20 mei 2018 18:30]

Hoewel je waarschijnlijk gelijk hebt, moet het nog maar blijken hoe groot het verschil in de praktijk is. Laat staan dat je met welke videokaart dan ook, goed 4k in 144hz kan spelen.

Het prijsverschil is gigantisch, het is echt nog maar de vraag of het verschil in kwaliteit voldoende is voor deze exorbitante prijs :P
Kan je verzekeren dat het verschil enorm is in de praktijk. Local full array backlight dimming zorgt ervoor dat het zwart net zoals bij Oled ook echt zwart is. De backlight gaar dus gewoon uit bij donkere vlakken op het scherm. Oogt zeer goed. Heb het prototype van dit paneel mogen aanschouwen op IFA waar Acer een booth had.
Al is het verschil nog zo groot , dan kom je tegen een ander punt aan :
Groot probleem is dat de ontwikkeling erg hard doorloopt van de grafische details tot de resoluties en de refresh rates, maar dat de videokaart power (achter blijft) of (achter word gehouden)
Ik krijg met moeite mijn 2560x1440p op 144 hz op leuke settings , en dan heb ik het nog over de lichtere games, de nieuwe AAA games kunnen al worden vergeten.
Ik denk dat alleen de grote youtubers + mensen met flinke geld bomen zo scherm + PC kunnen betalen.
Ik bedoel hoeveel % van de gamewereld heeft een PC van 2k ?
Denk nog geen 5%.
Als iedereen dan nog een scherm van 2k moet kopen, ik snap de markt niet helemaal.
Iedereen in mijn omgeving die ik ken , is bezig om de schermen te upgraden en dan praten ze alleen over grootte, en dan vinden ze de prijs al te duur worden.
Dan probeer ik ze al een 1440p resolutie aan te praten ipv 1920x1080 . (als ze van een 22 inch een 27 willen kopen)
Probeer dan maar eens 144hz en 4k aan te praten om vervolgens 1500-2000 euro te betalen 😃.
Ik draai zelf mijn games op een 1440p 165hz scherm en zit met een overgeklokte 1070gtx in veruit de meeste games toch echt over de 100fps. Vind dat zelf wel meevallen hoe lastig het is om zoveel frames te pushen. Een dubbele 1080gtx doet het met gemak op 4K.
Dan nog: voor dit geld haal je én een echt 4K OLED scherm van fatsoenlijke grootte voor de grafische parels die je op ultra wil spelen, én een prima 144hz scherm voor je competitieve shooters. Daar zou mijn voorkeur liggen.
Dus je oplossing is meerdere schermen kopen?
Dat zal uiteindelijk de prijs ook niet worden maar vergeet niet dat dit topnotch is... En dat is gewoon niet goedkoop....
van 60hz naar 144 is wel meer dan een verdubbeling van de frequentie. op 1080p betaal je voor een 144hz scherm ook veel meer dan voor een 60hz paneel.
Wat is de reden van de kenmerkende rand? Is dit om lichtinval tegen te gaan?
Klopt. Zie je wel eens op professionele schermen, maar ook gamers kunnen daar belang bij hebben. :)
Op mijn werk ook regelmatig gebruikt voor color correction bij bijvoorbeeld video of tijdschriften. Als het scherm eenmaal (bijvoorbeeld) het Adobe spectrum aankan dan zie je dus letterlijk op je scherm wat er van de pers rolt. Hoe beter je dat kan zien, hoe kleiner de error marge (TL verlichting op een glanzend iMac scherm is bijvoorbeeld superirritant. Dat kan als drukkerij veel geld kosten). Hoe minder lichtinval van buiten hoe beter. Ik neem aan dat het dus is bedoeld voor editting maar ook prima inzetbaar is voor een (betere) gameervaring :).
Ik hoop maar dat je ze er wal af kan halen
Ik sprak laatst iemand die sterk overtuigd was dat quantum-dot schermen (en TV's) geen échte 4K schermen waren, wat ook de reden is dat deze schermen vaak wat goedkoper zijn dan échte 4K schermen... maar bij een zoektochtje online begrijp ik er eigenlijk niet zoveel van. Weet iemand of dat wel klopt eigenlijk?

Zo aan de renders hier boven te zien is het scherm zelf wel een mooie denk ik :)
4K resolutie is 4K resolutie.
Ik denk dat die persoon meer bedoelde dat Qled niet zo goed als Oled is.

Dat heeft verder niets met de resolutie te maken.
Misschien bedoeld hij pentile VS rgb schermen?
Rgb heeft meer sub pixels dacht ik..
Ja, had quantom-led juist wel/geen witte subpixel om alles bij te vullen en zo niet het volledige RGB spectrum kan weergeven per pixel? Ik heb een wat ouder model LG tv (65”, 4k, 60hz, geen HDR) en die heeft dus ook een witte subpixel waardoor die eigenlijk niet volledig 4k zou zijn. Ik merk echter weinig verschil met een 55” 4k LG tv die wel volledige pixels en HDR heeft.

Overigens is HDR op Windows nog een behoorlijk drama voor games imo.

Edit:
@Xfade bedankt voor je heldere uitleg!

[Reactie gewijzigd door Kecin op 20 mei 2018 14:54]

Quantum Dot heeft die witte led niet, vanwege een patent van LG. Qdot gebruikt blauwe led + nanocrystals om de wavelength aan te passen en zo andere kleuren (wit) te produceren.
Samsung zat in de maag met dat patent en stapt daardoor meer naar Quantum Dot technieken ipv OLED op grote schermen.

[Reactie gewijzigd door Xfade op 20 mei 2018 14:24]

De nieuwste April update van Windows 10 heeft betere HDR support (of moet ik het SDR support noemen?). Nog steeds niet ideaal maal wel een verbetering.
Die witte subpixel maakt het niet meer of minder 4k. Er zijn gewoon 4 subpixels per pixel, in plaats van de gebruikelijke 3 subpixels. En die witte heeft niets met het spectrum te maken, die is er om de tv iets zuiniger te maken, bij wit beeld hoeven niet alle subpixels te branden, maar slechts 1.
Dat dacht ik ook, maar hij was zo overtuigd/overtuigend dat ik begon te twijfelen :)
Dat is marketing aan het werk. Feitelijk zou je 3840*2160 RGB LED's aan een pasieve matrix kunnen hangen en het een 4K scherm kunnen noemen, en je hebt 100% gelijk. Vooral mooi is het beeld zéker niet!

Dat zie je ook bij gamer-schermen vrij vaak, daar kunnen nog wel eens in de lading marketing over resolutie, LED's, inputlag, en andere zaken, de kwaliteitszaken zoals kijkhoek, precisie (6-bit subpixels ipv 8 oid...), dimming, e.d. ondergesneeuwd raken waar een gamer inderdaad doorgaans niet veel om geeft in twitch-shooters, maar in een immersive RPG of niet-game werk zijn het heel andere zaken...

Quantum-dot momenteel (schrijf niet gelijk de hele techniek af!) is niks meer dan een extra laagje waardoor de backlight enigszins anders gestructureerd kan worden (en waardoor een hogere helderheid mogelijk wordt).
Super uitleg, bedankt! De meeste van die termen ken ik wel omdat ik in de grafische industrie heel andere schermen nodig heb dan gamers bijvoorbeeld. Maar die Quantum Dot techniek klinkt (inderdaad) meer als een marketing-term dan iets wat daadwerkelijk belangrijk hoeft te zijn. Hoeft i.p.v. moet, omdat het voor sommige mensen wel belangrijk is :)
Dat zie je ook bij non-gamer-schermen vrij vaak, daar kunnen nog wel eens in de lading marketing over kijkhoek, precisie (6-bit subpixels ipv 8 oid...), dimming, de kwaliteitszaken zoals resolutie, LED's, inputlag, en andere zaken e.d. ondergesneeuwd raken waar een non-gamer inderdaad doorgaans niet veel om geeft in een immersive RPG of niet-game werk , maar in twitch-shooters zijn het heel andere zaken...
Ik vraag me wel eens af, 4ms is g2g lijkt me. Kleur naar kleur doet er nog langer over..

Verbeter me a.u.b. als ik dit fout denk, maar bij 144Hz worden de juiste kleurwaarden dan niet korter weergegeven dan het scherm erover kan doen om naar die kleur te veranderen?

Bij 144Hz wordt ieder beeldje 1000/144=6.94ms weergegeven. Scherm kan er goed 4ms over doen om tot de goede kleur te komen. Dan geeft het scherm minder dan de helft van de tijd de juiste kleur weer? Krijg je dan niet weer enorm last van ghosting?
Volgens mij komt ghosting omdat de pixel niet snel genoeg uit gaat.(kan iemand dat bevestigen?)
Ik zie niemand praten over de graka die je nodig hebt om dit aan te sturen en mss valt dit op een 27" wel mee maar ik hoor mensen al 32"/34"/38" noemen..
Dual 1080Ti, want dat heeft iedereen?
Of zeg ik nu iets heel geks.
Er zijn idd maar weinig AAA games die een enkele 1080ti/titan op 100fps kan spelen. Maar mensen vergeten vaak waar Gsync/freesync voor is. In dat geval is de 144hz meer een max bereik die je in sommige ideale situaties wel kunt halen, maar niet continue. Tevens zal deze investering ook toekomstgericht zijn en zal er gerust een kaart aankomen die het uiteindelijk wel kan halen. Als je continue de refreshrate van je scherm kan halen in games, heeft gsync/freesync geen nut.
Ik kijk meer uit naar 1440p schermen met TN/VA. Hopelijk is dat een stuk goedkoper. Goedkoper uiteraard maar is dat 1000,- of 1500,-.
Zit nog met een 1080p 60hz scherm en heel snel met een 1080TI en 2700X combo. Dus nieuw scherm moet wel komen maar ja...
Zo jammer dat het een 27" is. Liever een formaat waarbij scaling niet nodig is. Anders qua specs nagenoeg precies wat ik zoek. Eerst maar eens de reviews afwachten. Ik zie veel reacties over dat hij lelijk is, maar ik vind het er voor een gaming scherm vrij neutraal uitzien. Voornamelijk zwart, weinig bizarre hoeken, de voet is ook vrij normaal. Vergelijk dat eens met de ontwerpen van ASUS Rog bijvoorbeeld.

[Reactie gewijzigd door Kubrix op 20 mei 2018 15:58]

Om vervolgens op aardappel kwaliteit te gamen omdat je anders de fps niet haalt.
Die gekke sluitende-randen eromheen lijken me wel erg hinderlijk. Heeft iemand een idee waarom die er op zitten?

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee