标签:android flash streaming h-264 real-time
我正在尝试构建一个直播由Android手机捕获的视频和音频的系统.使用MediaRecorder在android端捕获视频和auido,然后直接推送到用python编写的服务器.客户端应该使用他们的浏览器访问这个实时源,因此我使用flash实现了系统的流式部分.目前,视频和音频内容都出现在客户端,但问题是它们不同步.我确定这是由闪存中错误的时间戳值引起的(目前我为一帧视频增加了60毫秒,但显然这个值应该是可变的).
音频在Android手机上编码成amr,所以我确切地知道amr的每一帧都是20ms.然而,视频不是这种情况,它被编码为H.264.为了将它们同步在一起,我必须确切知道H.264每帧的持续时间是多少毫秒,以便我可以在以后使用闪存提供内容时给它们加时间戳.我的问题是在H.264的NAL单元中可以获得这种信息吗?我试图在H.264标准中找到答案,但那里的信息是压倒性的.
有人可以指出我正确的方向吗?谢谢.
解决方法:
时间戳不是NAL单元,但通常是RTP的一部分.RTP / RTCP还负责媒体同步.
您可能也对RTP payload format for H.264感兴趣.
如果您不使用RTP,是否只是通过网络发送原始数据单元?
标签:android,flash,streaming,h-264,real-time 来源: https://codeday.me/bug/20190710/1419766.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。