软硬件混合的多媒体处理器芯片设计

汪国林

-/电子信息

目前,多媒体视频领域存在多个编码标准,包括mpeg1/mpeg2/mpeg4/h.264,以及我们国家拥有自主知识产权的AVS标准。mpeg4标准之中又包括xvid、divx等,而h.264可能也将存在多种编码标准。其中新的编码标准,如h.264、VC-1等,由于其需要较高的处理能力,仅仅依靠嵌入式CPU或DSP的多媒体解决方案是无法获得满意的性能指标的,因此必须采用专用集成电路(ASIC)方法来实现硬件加速功能。 但这种ASIC设计方法一即通过硬件实现直接提供某种(些)编码格式的支持缺乏灵活性,一旦有种新的编码标准推出,就需要重新设计开发芯片。面对众多的媒体编码标准,这种方式增加了设计以及应用成本。而就目前市场发展来看,多种视频编解码技术将长期共存,迫使芯片业界必须迅速攻克灵活性、兼容性等难题。为解决这一问题,清华大学设计了一种软硬件泥合的多媒体处理器解决方案,支持mpeg1/mpeg2/mpeg4/h.264/AVS视频标准以及相关的音频编码标准。其核心是设计一种多媒体处理芯片,该芯片对于通用的多媒体编码中的计算密集型的数据处理,如运动补偿算法(MotionCompensation)、反离散余弦变化(iDCT)、色彩空间转换等,采用ASIC实现。在此硬件平台之上,设计一套与具体标准无关的多媒体处理通用软件开发接口,实现软硬件混合的媒体处理。这样就能够增加媒体处理的灵活性一可以通过修改软件来支持新的编码标准或者新的应用。

软硬件混合的多媒体处理器芯片设计

汪国林

-/电子信息

目前,多媒体视频领域存在多个编码标准,包括mpeg1/mpeg2/mpeg4/h.264,以及我们国家拥有自主知识产权的AVS标准。mpeg4标准之中又包括xvid、divx等,而h.264可能也将存在多种编码标准。其中新的编码标准,如h.264、VC-1等,由于其需要较高的处理能力,仅仅依靠嵌入式CPU或DSP的多媒体解决方案是无法获得满意的性能指标的,因此必须采用专用集成电路(ASIC)方法来实现硬件加速功能。 但这种ASIC设计方法一即通过硬件实现直接提供某种(些)编码格式的支持缺乏灵活性,一旦有种新的编码标准推出,就需要重新设计开发芯片。面对众多的媒体编码标准,这种方式增加了设计以及应用成本。而就目前市场发展来看,多种视频编解码技术将长期共存,迫使芯片业界必须迅速攻克灵活性、兼容性等难题。为解决这一问题,清华大学设计了一种软硬件泥合的多媒体处理器解决方案,支持mpeg1/mpeg2/mpeg4/h.264/AVS视频标准以及相关的音频编码标准。其核心是设计一种多媒体处理芯片,该芯片对于通用的多媒体编码中的计算密集型的数据处理,如运动补偿算法(MotionCompensation)、反离散余弦变化(iDCT)、色彩空间转换等,采用ASIC实现。在此硬件平台之上,设计一套与具体标准无关的多媒体处理通用软件开发接口,实现软硬件混合的媒体处理。这样就能够增加媒体处理的灵活性一可以通过修改软件来支持新的编码标准或者新的应用。

软硬件混合的多媒体处理器芯片设计

汪国林

-/电子信息

目前,多媒体视频领域存在多个编码标准,包括mpeg1/mpeg2/mpeg4/h.264,以及我们国家拥有自主知识产权的AVS标准。mpeg4标准之中又包括xvid、divx等,而h.264可能也将存在多种编码标准。其中新的编码标准,如h.264、VC-1等,由于其需要较高的处理能力,仅仅依靠嵌入式CPU或DSP的多媒体解决方案是无法获得满意的性能指标的,因此必须采用专用集成电路(ASIC)方法来实现硬件加速功能。 但这种ASIC设计方法一即通过硬件实现直接提供某种(些)编码格式的支持缺乏灵活性,一旦有种新的编码标准推出,就需要重新设计开发芯片。面对众多的媒体编码标准,这种方式增加了设计以及应用成本。而就目前市场发展来看,多种视频编解码技术将长期共存,迫使芯片业界必须迅速攻克灵活性、兼容性等难题。为解决这一问题,清华大学设计了一种软硬件泥合的多媒体处理器解决方案,支持mpeg1/mpeg2/mpeg4/h.264/AVS视频标准以及相关的音频编码标准。其核心是设计一种多媒体处理芯片,该芯片对于通用的多媒体编码中的计算密集型的数据处理,如运动补偿算法(MotionCompensation)、反离散余弦变化(iDCT)、色彩空间转换等,采用ASIC实现。在此硬件平台之上,设计一套与具体标准无关的多媒体处理通用软件开发接口,实现软硬件混合的媒体处理。这样就能够增加媒体处理的灵活性一可以通过修改软件来支持新的编码标准或者新的应用。

软硬件混合的多媒体处理器芯片设计

汪国林

-/电子信息

目前,多媒体视频领域存在多个编码标准,包括mpeg1/mpeg2/mpeg4/h.264,以及我们国家拥有自主知识产权的AVS标准。mpeg4标准之中又包括xvid、divx等,而h.264可能也将存在多种编码标准。其中新的编码标准,如h.264、VC-1等,由于其需要较高的处理能力,仅仅依靠嵌入式CPU或DSP的多媒体解决方案是无法获得满意的性能指标的,因此必须采用专用集成电路(ASIC)方法来实现硬件加速功能。 但这种ASIC设计方法一即通过硬件实现直接提供某种(些)编码格式的支持缺乏灵活性,一旦有种新的编码标准推出,就需要重新设计开发芯片。面对众多的媒体编码标准,这种方式增加了设计以及应用成本。而就目前市场发展来看,多种视频编解码技术将长期共存,迫使芯片业界必须迅速攻克灵活性、兼容性等难题。为解决这一问题,清华大学设计了一种软硬件泥合的多媒体处理器解决方案,支持mpeg1/mpeg2/mpeg4/h.264/AVS视频标准以及相关的音频编码标准。其核心是设计一种多媒体处理芯片,该芯片对于通用的多媒体编码中的计算密集型的数据处理,如运动补偿算法(MotionCompensation)、反离散余弦变化(iDCT)、色彩空间转换等,采用ASIC实现。在此硬件平台之上,设计一套与具体标准无关的多媒体处理通用软件开发接口,实现软硬件混合的媒体处理。这样就能够增加媒体处理的灵活性一可以通过修改软件来支持新的编码标准或者新的应用。

软硬件混合的多媒体处理器芯片设计

汪国林

-/电子信息

目前,多媒体视频领域存在多个编码标准,包括mpeg1/mpeg2/mpeg4/h.264,以及我们国家拥有自主知识产权的AVS标准。mpeg4标准之中又包括xvid、divx等,而h.264可能也将存在多种编码标准。其中新的编码标准,如h.264、VC-1等,由于其需要较高的处理能力,仅仅依靠嵌入式CPU或DSP的多媒体解决方案是无法获得满意的性能指标的,因此必须采用专用集成电路(ASIC)方法来实现硬件加速功能。 但这种ASIC设计方法一即通过硬件实现直接提供某种(些)编码格式的支持缺乏灵活性,一旦有种新的编码标准推出,就需要重新设计开发芯片。面对众多的媒体编码标准,这种方式增加了设计以及应用成本。而就目前市场发展来看,多种视频编解码技术将长期共存,迫使芯片业界必须迅速攻克灵活性、兼容性等难题。为解决这一问题,清华大学设计了一种软硬件泥合的多媒体处理器解决方案,支持mpeg1/mpeg2/mpeg4/h.264/AVS视频标准以及相关的音频编码标准。其核心是设计一种多媒体处理芯片,该芯片对于通用的多媒体编码中的计算密集型的数据处理,如运动补偿算法(MotionCompensation)、反离散余弦变化(iDCT)、色彩空间转换等,采用ASIC实现。在此硬件平台之上,设计一套与具体标准无关的多媒体处理通用软件开发接口,实现软硬件混合的媒体处理。这样就能够增加媒体处理的灵活性一可以通过修改软件来支持新的编码标准或者新的应用。

共 5 条 前往




工作日 9:00 —17:30

客服电话:

公众号

科创海

微信扫一扫,关注我们哦~

回顶部