Os cuento lo que yo se:
1080i consiste en barrer la imagen en dos pasadas una con las lineas impares y otra con lineas pares. Cada uno de estos semi-cuadros tiene por tanto 540 lineas y se trasmite 50 veces por segundo (60 en Usa, 48 en modo cine USA)
Por tanto en 1080i se transmiten la totalidad de las 1080 lineas 25 (30 o 24) veces por segundo. En teoría, suficiente para que no haya diferencia en cine.
1080i es el estandar de-facto para broadcast en HDTV. Yo creo que está bien establecido.
1080p significa barrer todas las lineas en un sólo cuadro, que se transmite - atencion- 50 veces por segundo (o 60/48 en Usa)
Por tanto el 1080p tiene EL DOBLE de velocidad bruta binaria.
Si lo que transmitimos es cine, suponiendo que el proyector o procesador, sea feten, ambos transmiten la totalidad de los fotogramas a 1080 lineas. El 1080p los transmite innecesariamente dos veces. Por eso no tiene demasiado sentido como std de difusion.
Notad que la razón de esto no es que sea entrelazado/progresivo, que en realidad es un detalle menor para los modernos circuitos de procesado, sino la doble velocidad de barrido del 1080p.
Otro tema son los proyectores/displays, que son naturalmente progresivos. Pero eso es otro tema.
En el futuro, cuando este difundida la HDTV y haya proyectores asequibles de 1080 lineas, lo normal será recibir la transmision en 1080i y proyectarla en 1000p con la conversión i>p hecha bien en en proyector, o en otro elemento de la cadena.
Un proyector con entrada 1080p tendria la ventaja de que permitiría hacer la conversion i>p en otro elemento. No debería haber ninguna otra diferencia.
Un saludo