MPEG-4 é um grupo de padrões internacionais para compressão de áudio digital e dados visuais, sistemas multimídia e formatos de armazenamento de arquivos. Foi originalmente introduzido no final de 1998 como um grupo de formatos de codificação de áudio e vídeo e tecnologias relacionadas acordadas pelo ISO/IECMoving Picture Experts Group (MPEG) (ISO/IEC JTC 1 /SC29/WG11) sob o padrão formal ISO/IEC 14496 – Codificação de objetos audiovisuais. Os usos do MPEG-4 incluem compactação de dados audiovisuais para vídeo na Internet e distribuição de CD, voz (telefone, videofone) e aplicações de televisãoaberta. O padrão MPEG-4 foi desenvolvido por um grupo liderado por Touradj Ebrahimi (mais tarde presidente do JPEG) e Fernando Pereira.[1]
Background
O MPEG-4 absorve muitos dos recursos do MPEG-1 e MPEG-2 e outros padrões relacionados, adicionando novos recursos, como suporte VRML (estendido) para renderização 3D, arquivos compostos orientados a objetos (incluindo objetos de áudio, vídeo e VRML), suporte para gerenciamento de direitos digitais especificado externamente e vários tipos de interatividade. O AAC (Advanced Audio Coding) foi padronizado como um complemento do MPEG-2 (como Part 1) antes que o MPEG-4 fosse lançado.
O MPEG-4 ainda é um padrão em evolução e está dividido em várias partes. As empresas que promovem a compatibilidade com MPEG-4 nem sempre declaram claramente a que nível de compatibilidade de "parte" se referem. As principais partes a serem observadas são MPEG-4 Part 2 (incluindo Advanced Simple Profile, usado por codecs como DivX, Xvid, Nero Digital e 3ivx e pelo QuickTime 6) e MPEG-4 parte 10 (MPEG-4 AVC/H .264 ou Advanced Video Coding, usado pelo codificador x264, Nero Digital AVC, QuickTime 7 e mídia de vídeo de alta definição como Blu-ray Disc).
A maioria dos recursos incluídos no MPEG-4 são deixados para desenvolvedores individuais decidirem se implementam ou não. Isso significa que provavelmente não há implementações completas de todo o conjunto de padrões MPEG-4. Para lidar com isso, o padrão inclui o conceito de "perfis" e "níveis", permitindo que um conjunto específico de capacidades seja definido de forma apropriada para um subconjunto de aplicações.
Inicialmente, o MPEG-4 destinava-se principalmente a comunicações de vídeo de baixa taxa de bits; no entanto, seu escopo como padrão de codificação multimídia foi posteriormente expandido. O MPEG-4 é eficiente em uma variedade de taxas de bits, variando de alguns kilobits por segundo a dezenas de megabits por segundo. O MPEG-4 oferece as seguintes funções:
Capacidade de codificar dados de mídia mista (vídeo, áudio, fala)
Resiliência a erros para permitir uma transmissão robusta
Capacidade de interagir com a cena audiovisual gerada no receptor
Visão geral
O MPEG-4 fornece uma série de tecnologias para desenvolvedores, para vários provedores de serviços e para usuários finais:
O MPEG-4 permite que diferentes desenvolvedores de software e hardware criem objetos multimídia com melhores habilidades de adaptabilidade e flexibilidade para melhorar a qualidade de serviços e tecnologias como televisão digital, gráficos de animação, World Wide Web e suas extensões.
Provedores de rede de dados podem usar MPEG-4 para transparência de dados. Com a ajuda de procedimentos padrão, os dados MPEG-4 podem ser interpretados e transformados em outros tipos de sinais compatíveis com qualquer rede disponível.
O formato MPEG-4 oferece aos usuários finais uma ampla gama de interação com vários objetos animados.
Sinalização padronizada de gerenciamento de direitos digitais, também conhecida na comunidade MPEG como gerenciamento e proteção de propriedade intelectual (IPMP).
O formato MPEG-4 pode executar várias funções, entre as quais podem ser as seguintes:
Multiplexação e sincronização de dados, associados a objetos de mídia, de forma que eles possam ser transportados de forma eficiente através de canais de rede.
Interação com a cena audiovisual, que se forma na lateral do receptor.
Perfis e Níveis
O MPEG-4 fornece um amplo e rico conjunto de ferramentas para codificação. Subconjuntos dos conjuntos de ferramentas MPEG-4 foram fornecidos para uso em aplicações específicas. Esses subconjuntos, chamados de 'Perfis', limitam o tamanho do conjunto de ferramentas que um decodificador deve implementar.[3] A fim de restringir a complexidade computacional, um ou mais 'níveis' são definidos para cada perfil.[3] Uma combinação de Perfil e Nível permite:[3]
Um construtor de codecs para implementar apenas o subconjunto do padrão necessário, mantendo a interoperabilidade com outros dispositivos MPEG-4 que implementam a mesma combinação.[3]
Verificar se os dispositivos MPEG-4 estão em conformidade com o padrão, conhecido como teste de conformidade.[3]
MPEG-4 Parts
O MPEG-4 consiste em vários padrões - denominados "partes" - incluindo os seguintes (cada parte cobre um certo aspecto de toda a especificação):
Descreve a sincronização e multiplexação de vídeo e áudio. Por exemplo, o formato de arquivo MPEG-4 versão 1 (obsoleto pela versão 2 definida em MPEG-4 Parte 14). A funcionalidade de uma pilha de protocolos de transporte para transmitir e/ou armazenar conteúdo em conformidade com a ISO/IEC 14496 não está dentro do escopo de 14496-1 e apenas a interface para esta camada é considerada (DMIF). As informações sobre o transporte de conteúdo MPEG-4 são definidas, por exemplo, em MPEG-2 Transport Stream, RTP Audio Video Profiles e outros.[8][9][10][11][12]
Um formato de compressão para dados visuais (vídeo, texturas estáticas, imagens sintéticas, etc.). Um dos muitos "perfis" na Part 2 é o Advanced Simple Profile (ASP).
Especifica um método para transportar conteúdo MPEG-4 em redes IP. Ele também inclui diretrizes para projetar formatos de carga útil RTP, regras de uso do SDP para transportar informações relacionadas ao ISO/IEC 14496-1, definições de tipo MIME, análise de segurança RTP e multicasting.
Pode ser usado para conteúdo rico e interativo com vários perfis, incluindo versões 2D e 3D. MPEG-4 Part 11 MPEG-4 Part 1 revisado - ISO/IEC 14496-1:2001 e duas emendas ao MPEG-4 Part 1. Ele descreve uma descrição em nível de sistema de um mecanismo de aplicativo (entrega, ciclo de vida, formato e comportamento de Java byte code applications) e o Binary Format for Scene (BIFS) e o Extensible MPEG-4 Textual (XMT) – uma representação textual do conteúdo multimídia MPEG-4 usando XML, etc.[24] (Também é conhecido como BIFS, XMT, MPEG-J.[25] MPEG-J foi definido em MPEG-4 Part 21)
Um formato de arquivo para armazenar conteúdo de mídia baseado em tempo. É um formato geral que forma a base para vários outros formatos de arquivo mais específicos (por exemplo, 3GP, Motion JPEG 2000, MPEG-4 Part 14). É tecnicamente idêntico ao ISO/IEC 15444-12 (sistema de codificação de imagem JPEG 2000 – Part 12).
Extensões de proteção e gerenciamento de propriedade intelectual (IPMP)
MPEG-4 Parte 13 revisou uma emenda ao MPEG-4 Parte 1 – ISO/IEC 14496-1:2001/Amd 3:2004. Ele especifica processamento, sintaxe e semântica comuns de gerenciamento e proteção de propriedade intelectual (IPMP) para o transporte de ferramentas IPMP no fluxo de bits, transporte de informações IPMP, autenticação mútua para ferramentas IPMP, uma lista de autoridades de registro necessárias para o suporte das especificações alteradas (por exemplo, CISAC), etc. Foi definido devido à falta de interoperabilidade de diferentes mecanismos de proteção (diferentes sistemas DRM) para proteção e distribuição de conteúdo digital protegido por direitos autorais, como música ou vídeo.[29][30][31][32][33][34][35]
Também é conhecido como "formato de arquivo MPEG-4 versão 2". O formato de arquivo contêiner designado para conteúdo MPEG-4, que é baseado na Parte 12. Ele revisa e substitui completamente a Cláusula 13 da ISO/IEC 14496-1 (MPEG-4 Part 1: Sistemas), na qual o formato de arquivo MPEG-4 foi previamente especificado.
Ele especifica o modelo MPEG-4 Animation Framework eXtension (AFX) para representar o conteúdo de gráficos 3D. O MPEG-4 é estendido com objetos sintéticos de alto nível para especificar geometria, textura, animação e algoritmos de compressão dedicados.
Os requisitos do LASeR (eficiência de compactação, código e área de memória) são atendidos com base no formato Scalable Vector Graphics (SVG) existente definido pelo World Wide Web Consortium.[46]
Descreve um ambiente programático leve para aplicativos multimídia interativos avançados – uma estrutura que combina um subconjunto do ambiente de aplicativo Java padrão MPEG (MPEG-J) com uma API Java.[25][47][48][49] (no estágio "FCD" em julho de 2005, FDIS em janeiro de 2006, publicado como padrão ISO em 22/11/2006).
OFFS é baseado na especificação de formato de fonte OpenType versão 1.4 e é tecnicamente equivalente a essa especificação.[51] Atingiu o estágio "CD" em julho de 2005, publicado como padrão ISO em 2007
Define um modelo para conectar ferramentas de Compressão de Gráficos 3D definidas nos padrões MPEG-4 a primitivas gráficas definidas em qualquer outro padrão ou especificação.
A Conformidade de Gráficos 3D resume os requisitos, faz referências cruzadas com as características e define como a conformidade com eles pode ser testada. Orientações são dadas na construção de testes para verificar a conformidade do decodificador.
O texto da Part 29 é derivado da Part 10 - ISO/IEC 14496-10. A codificação de vídeo da Web é uma tecnologia compatível com o perfil de linha de base restrita da ISO/IEC 14496-10 (o subconjunto especificado no Anexo A para linha de base restrita é uma especificação normativa, enquanto todas as partes restantes são informativas).
Texto cronometrado e outras sobreposições visuais no formato de arquivo de mídia de base ISO
Ele descreve o transporte de algumas formas de texto cronometrado e fluxos de legendas em arquivos baseados em ISO/IEC 14496-12 - W3C Timed Text Markup Language 1.0, W3C WebVTT (Web Video Text Tracks). A documentação desses formulários não exclui outra definição de transporte de texto cronometrado ou legendas; consulte, por exemplo, 3GPP Timed Text (3GPP TS 26.245).
Os perfis também são definidos dentro das "partes" individuais, portanto, uma implementação de uma parte normalmente não é uma implementação de uma parte inteira.
Os níveis de baixo perfil fazem parte das restrições de codificação/decodificação de vídeo MPEG-4 e são compatíveis com o antigo padrão ITU H.261, também compatível com os antigos padrões de TV analógica para transmissão e gravação (como vídeo NTSC ou PAL). O perfil ASP em seu nível mais alto é adequado para a maioria das mídias e reprodutores de DVD comuns ou para muitos sites de vídeo online, mas não para discos Blu-ray ou conteúdos de vídeo HD online.
Perfis mais avançados para mídia HD foram definidos posteriormente no perfil AVC, que é funcionalmente idêntico ao padrão ITU H.264, mas agora também integrado ao MPEG-4 Part 10 (consulte H.264/MPEG-4 AVC para obter a lista de níveis definidos neste perfil AVC).
Licenciamento
O MPEG-4 contém tecnologias patenteadas, cujo uso requer licenciamento em países que reconhecem patentes de algoritmos de software. Mais de duas dúzias de empresas afirmam ter patentes que cobrem o MPEG-4. A MPEG LA[59] licencia as patentes necessárias para o MPEG-4 Part 2 Visual de uma ampla gama de empresas (o áudio é licenciado separadamente) e lista todos os seus licenciantes e licenciados no site. Novas licenças para patentes do Sistema MPEG-4 estão em desenvolvimento[60] e nenhuma nova licença está sendo oferecida enquanto os detentores de sua antiga licença do Sistema MPEG-4 ainda estiverem cobertos pelos termos dessa licença para as patentes listadas (MPEG LA – Lista de Patentes).
A maioria das patentes usadas para o formato MPEG-4 Visual são detidas por três empresas japonesas: Mitsubishi Electric (255 patentes), Hitachi (206 patentes) e Panasonic (200 patentes).
↑Wiegand, T; Sullican, G J; Bjontegaard, G; Luthra, A. «Overview of the H.264/AVC video coding standard - IEEE Journals & Magazine». doi:10.1109/TCSVT.2003.815165Parâmetro desconhecido |autor-link1= ignorado (ajuda)