HDMI vs. DisplayPort: por qué ninguna tele tiene el puerto favorito de los jugadores de PC

Ambas conexiones han acortado diferencias con el paso del tiempo, pero es curioso que aún no haya televisores que ofrezcan puertos DisplayPort

Cables
1 comentario Facebook Twitter Flipboard E-mail

El HDMI se ha convertido en el estándar a seguir para la transferencia de señales de audio y vídeo. Con el tiempo y sus diversas actualizaciones, cada vez es compatible con resoluciones y tasas de frecuencia de refresco más altas, haciendo que sea un componente esencial para todo tipo de propósitos relacionados con el contenido multimedia.

No obstante, desde hace décadas también ha existido otro tipo de conexión muy similar que, por alguna razón nunca hemos visto en televisores. Este estándar se ha reservado casi en exclusiva a monitores de PC y hablamos, efectivamente, del DisplayPort. Sin embargo, a pesar de todos sus beneficios y mejora en muchas características frente al HDMI, no es una conexión típica en una Smart TV.

Hoy día presentan sus diferencias, pero para el usuario no son importantes

Ambas conexiones tienen sus propias funciones, mientras que también comparten otras tantas. Aunque tanto HDMI como DisplayPort son especialistas en una cosa: transferir señales de audio y vídeo con gran ancho de banda. Sobre todo en sus últimas versiones, que permiten obtener señales a gran resolución y frecuencia.

Hay varios aspectos que hacen mejor al DisplayPort sobre el HDMI. Por ejemplo, la tecnología MST (Multi-Stream Transport), permite conectar múltiples pantallas en serie con el uso de un cable DisplayPort. El único limitante de esta tecnología es no sobrepasar el ancho de banda máximo de la conexión.


HDMI 2.0

Displayport 1.2

hdmi 2.1

displayport 1.4

lanzamiento

2013

2010

2017

2016

ancho de banda máximo

18Gbps

21.6Gbps

48Gbps

32.4Gbps

1920x1080, 8-bit

240Hz

280Hz

540Hz

540Hz

1920x1080, 10-bit

144Hz

240Hz

500Hz

540Hz

3840x2160, 8-bit

60Hz

60Hz

240Hz

240Hz

3840x2160, 10-bit

30Hz

60Hz

240Hz

240Hz

Esta característica no la ofrecen los HDMI, pero sí se puede emular utilizando un adaptador de DisplayPort a HDMI en una fuente con DisplayPort.

HDMI ha mejorado ampliamente tras la llegada de su versión 2.1, pues ahora admite un gran ancho de banda, compatibilidad con la tecnología VRR para sincronizar la tasa de frecuencia de refresco del panel con la tasa de fotogramas del contenido, y otras características muy establecidas en el mundo del videojuego.

Otra de ellas es la tecnología eARC/ARC, que es exclusiva de HDMI y que hoy día se hace imprescindible, sobre todo si tiendes a conectar periféricos de audio adicionales a tu televisor o monitor. eARC/ARC permite que la mayoría de formatos de audio puedan transferirse a un dispositivo de audio mediante passthrough.

De esta manera, podrás conectar un reproductor Bluray y una barra de sonido a un televisor con un único cable HDMI, siempre y cuando el televisor sea compatible con dicha tecnología. La principal diferencia entre ARC y eARC es el ancho de banda máximo permitido, por lo que eARC se utiliza para contenido con formatos como Dolby Atmos.

hdmi Imagen: TheRegisti (Unsplash)

Si hacemos la comparativa del HDMI y el DisplayPort desde el punto de vista del rendimiento, hoy día no hay demasiadas diferencias entre un cable HDMI 2.1 y un cable DisplayPort 1.4 (DP 2.1 aún se encuentra en muy pocos monitores). La calidad de imagen será la misma, y los tiempos de respuesta e input lag también son prácticamente similares en ambas conexiones.

De entre los dispositivos más utilizados, tan solo los monitores y ordenadores hacen uso del estándar DisplayPort. Ni televisores, ni proyectores, ni consolas, ni reproductores Bluray, ni dispositivos de streaming ni barras de sonido utilizan el estándar DisplayPort, optando exclusivamente por HDMI. Antaño había bastantes diferencias en lo que respecta a rendimiento entre ambos estándares, pero con la llegada del HDMI 2.1, las diferencias se han achicado.

dp Monitor conectado a un PC con un cable DisplayPort

Quizás la adopción del HDMI en la gran mayoría de dispositivos se debe a que el estándar apareció antes en el mercado (alrededor de 2004), frente al DisplayPort, que llegó sobre el año 2008 junto al monitor Dell 3008WFP. Otra teoría es que, el estándar HDMI ha sido apoyado por muchos fabricantes de televisores en su consorcio desde su adopción. Marcas tales como Panasonic, Philips o Sony, entre muchas más, impulsaron el uso del HDMI antaño.

Además de esto, cabe destacar que el consorcio HDMI aplica cargos a cada fabricante que quiera añadir este estándar en su producto. Junto a ello, HDMI ofrece protección contra copia desde el inicio (HDCP), una característica con un gran interés para los fabricantes y productores a la hora de impedir copias de contenido digital. DisplayPort también podría admitir HDCP, aunque a menudo se evita esta integración por problemas de compatibilidad.

En definitiva, HDMI es el estándar más extendido de la industria por factores como una mayor distribución, su llegada más temprana al mercado, sus licencias de uso y la protección HDCP, mientras que DisplayPort suele ser el favorito de los aficionados a los videojuegos, ya que es un estándar que suele encontrarse únicamente en monitores y ordenadores.

HDMI ha existido durante casi dos décadas en televisores, por lo que es poco probable que la industria torne a otro estándar en la actualidad. Así que si siempre has tenido la duda sobre qué estándar utilizar en tu ordenador, lo mejor que puedes hacer es tomar la decisión en base a la cantidad de monitores compatibles con ambos estándares que tienes y la cantidad de puertos DisplayPort y HDMI que tiene tu tarjeta gráfica.

Imagen de portada | Xataka

En Xataka Smart Home | Si tienes un cable de TV que va a las habitaciones, tienes un tesoro: así puedes convertirlo en una red Ethernet de alta velocidad

Inicio