iOS视频通话在GitHub的资料

文章出处,原创于 http://HawkingOuYang.com/

我的GitHub


原材料:

FFmpeg

A native iOS video chat app based on WebRTC (视频聊天-单发版,这个好)
本地文件夹:(8) GitHub_Technique/apprtc-ios
GitHub标星数量:197
GitHub地址:https://github.com/ISBX/apprtc-ios

Agora Video Chat Demo App With QR Scan (多发版,这个好!)
本地文件夹:(8) GitHub_Technique/AgoraDemoExtend
GitHub标星数量:14
GitHub地址:https://github.com/soapyigu/AgoraDemoExtend

仿微信小视频 (蛮好的)
本地文件夹:(8) GitHub_Technique/WeChatMicroVideo
GitHub标星数量:9
GitHub地址:https://github.com/MarineXmh/WeChatMicroVideo

App for SEVEN
本地文件夹:(8) GitHub_Technique/VideoChatDemo_SnowyWhite
GitHub标星数量:2
GitHub地址:https://github.com/SnowyWhite/VideoChatDemo

Demonstration of Video Chat app using opentok (swift写的)
本地文件夹:(8) GitHub_Technique/VideoChatDemo_clevertrevor
GitHub标星数量:2
GitHub地址:https://github.com/clevertrevor/VideoChatDemo

iOS example app for realtime video chat using cine.io https://www.cine.io/products/peer
本地文件夹:(8) GitHub_Technique/cineio-peer-ios-example-app
GitHub标星数量:4
GitHub地址:https://github.com/cine-io/cineio-peer-ios-example-app


iPad video chat that lets you draw your emotions (这个代码好乱啊!)
https://github.com/mgregory/SeeMeHearMeTouchMe

Sample-VideoChat-ios (没懂,怎么回事?)
https://github.com/duzexu/Sample-VideoChat-ios


问答:

可以用WebRTC来做视频直播吗?
http://www.zhihu.com/question/25497090

别迷信 WebRtc,WebRtc只适合小范围(8人以内)音视频会议,不适合做直播:

  1. 视频部分:vpx的编码器太弱,专利原因不能用264,做的好的都要自己改264/265代码才行。
  2. 音频部分:音频只适合人声编码,对音乐和其他非人声的效果很糟糕。
  3. 网络部分:对国内各种奇葩网络适应性太低,网络糟糕点或者人多点就卡。
  4. 信号处理:同时用过 GIPS和 WebRTC 进行对比,可以肯定目前开源的代码是GIPS阉割过的。
  5. 使用规模:10人以内使用,超过10人就挂了,WebEx方案支持的人数都比 RTC 强。

正确的方法是啥呢?
————————- 分割线 ————————-
让粉丝们来看直播,如果同时粉丝数>10人,那么不关 WebRtc 鸟事,服务器请使用 nginx rtmp-module架设,架设好了用 ffmpeg 命令行来测试播摄像头。主播客户端请使用rtmp进行推流给rtmp-module,粉丝请使用 rtmp / flv + http stream 进行观看,PC-web端的粉丝请使用 Flash NetStream来观看,移动 web端的粉丝请使用 hls / m3u8 来观看。

如果你试验成功要上线了,出现压力了,那么把nginx分层(接入层+交换层),稍微改两行代码,如果资金不足以全国部署服务器,那么把 nginx-rtmp-module 换为 cdn 的标准直播服务,也可以直接调过 nginx,一开始就用 cdn 的直播服务,比如网宿(斗鱼的直播服务提供商)。

这是正道,别走弯路了。

作者:韦易笑
链接:http://www.zhihu.com/question/25497090/answer/72397450
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

我所在的项目用这个技术两年多了,先说结论:完全可以!

但是,凡事总有但是,也没那么简单。你以为调用几个Chrome的API就能直播了?too simple

楼上 米小嘉 回答中的猜想是不正确的,WebRTC用的不是插件,是Chrome自带的功能,是原生js的API,也没有什么浏览器自带的插件。
楼上 煎饼果子社长 的方法也不对,WebRTC的API不仅仅是给你获取本地信源的,所谓RTC是real time communication的缩写,自然这套API是带传输功能的。所以获取图像信源之后不应该用websocket发送图像数据,而是直接用WebRTC的通信相关API发送图像和声音(这套API是同时支持图像和声音的)数据。

所以,正确的方法是什么呢?
1、你得有一个实现了WebRTC相关协议的客户端。比如Chrome浏览器。
2、架设一个类似MCU系统的服务器。(不知道MCU是什么?看这:MCU(视频会议系统中心控制设备))

第一步,用你的客户端,比如Chrome浏览器,通过WebRTC相关的媒体API获取图像及声音信源,再用WebRTC中的通信API将图像和声音数据发送到MCU服务器。
第二步,MCU服务器根据你的需求对图像和声音数据进行必要的处理,比如压缩、混音等。
第三步,需要看直播的用户,通过他们的Chrome浏览器,链接上你的MCU服务器,并收取服务器转发来的图像和声音流。

先说步骤一,如果你只是做着玩玩,完全可以直接用Chrome浏览器做你的直播客户端。把摄像头麦克风连上电脑之后,Chrome可以用相关的js的API获取到摄像头和麦克风的数据。缺点就是如果长时间直播,Chrome的稳定性堪忧,我不是吓唬你。我们项目的经验是,chrome这样运行24小时以上内存占用很厉害,而且容易崩溃。

第二步,你可能要问,WebRTC可以直接在浏览器之间P2P地传输流,为什么还要有中转的MCU服务器?因为Chrome的功能很弱,视频的分辨率控制、多路语音的混音都做不了,所以需要MCU参与。最重要的是,Chrome同时给6个客户端发视频流就很消耗资源了,所以你如果有超过10个用户收看的话,Chrome很容易崩溃。

第三步就比较简单了,没什么好说的。

最后最后,还是老话题,兼容性。你可以查一下现在支持的浏览器有款,IE据说支持,但是我们研究了一下好像他用的协议和Chrome不一样,不能互通。firefox和opera情况也不是很理想。

————————-2015年11月17日 更新————————–
韦易笑 的答案中说“10人以内使用,超过10人就挂了”。从我个人的经验来看,我认为WebRTC并没有那么不堪。我不知道他是用什么样的方案,但是我原来的那个项目,13年做的结果是 1人广播,39人收看,在一台i3 + 4G + Centos6.4 mini的机器上跑MCU,连续运行48小时没有出现问题。CPU的使用率大概在60%左右,内存使用率是多少我记不清了,但是印象中不高,而且比较稳定。能不能支持更多的客户端我们没有尝试,因为当时已经满足我们的需求了。

作者:刘津玮
链接:http://www.zhihu.com/question/25497090/answer/43395462
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


HTML5新特性之WebRTC
http://www.cnblogs.com/jscode/p/3601648.html

google为什么要开源webrtc

google开源了WebRTC项目,网址是:http://code.google.com/p/webrtc/。

  WebRTC实现了基于网页的视频会议,标准是WHATWG 协议,目的是通过浏览器提供简单的javascript就可以达到实时通讯(Real-Time Communications (RTC))能力。

  通过对源码的粗略分析,WebRTC提供了视频会议的核心技术,包括音视频的采集、编解码、网络传输、显示等功能,并且还支持跨平台:windows,linux,mac,android。

  WebRTC的视频处理分析(windows平台)

  WebRTC的视频部分,包含采集、编解码(I420/VP8)、加密、媒体文件、图像处理、显示、网络传输与流控(RTP/RTCP)等功能。

  视频采集—video_capture

  源代码在webrtc\modules\video_capture\main目录下,包含接口和各个平台的源代码。
  在windows平台上,WebRTC采用的是dshow技术,来实现枚举视频的设备信息和视频数据的采集,这意味着可以支持大多数的视频采集设备;对那些需要单独驱动程序的视频采集卡(比如海康高清卡)就无能为力了。
  视频采集支持多种媒体类型,比如I420、YUY2、RGB、UYUY等,并可以进行帧大小和帧率控制。

  视频编解码—video_coding
  源代码在webrtc\modules\video_coding目录下。
  WebRTC采用I420/VP8编解码技术。VP8是google收购ON2后的开源实现,并且也用在WebM项目中。VP8能以更少的数据提供更高质量的视频,特别适合视频会议这样的需求。

  视频加密–video_engine_encryption
  视频加密是WebRTC的video_engine一部分,相当于视频应用层面的功能,给点对点的视频双方提供了数据上的安全保证,可以防止在Web上视频数据的泄漏。
  视频加密在发送端和接收端进行加解密视频数据,密钥由视频双方协商,代价是会影响视频数据处理的性能;也可以不使用视频加密功能,这样在性能上会好些。
  视频加密的数据源可能是原始的数据流,也可能是编码后的数据流。估计是编码后的数据流,这样加密代价会小一些,需要进一步研究。

  视频媒体文件–media_file
  源代码在webrtc\modules\media_file目录下。
  该功能是可以用本地文件作为视频源,有点类似虚拟摄像头的功能;支持的格式有Avi。
  另外,WebRTC还可以录制音视频到本地文件,比较实用的功能。

  视频图像处理–video_processing
  源代码在webrtc\modules\video_processing目录下。
  视频图像处理针对每一帧的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。

  视频显示–video_render
  源代码在webrtc\modules\video_render目录下。
  在windows平台,WebRTC采用direct3d9和directdraw的方式来显示视频,只能这样,必须这样。

  网络传输与流控
  对于网络视频来讲,数据的传输与控制是核心价值。WebRTC采用的是成熟的RTP/RTCP技术。

  WebRTC的音频处理分析(windows平台)

  WebRTC的音频部分,包含设备、编解码(iLIBC/iSAC/G722/PCM16/RED/AVT、NetEQ)、加密、声音文件、声音处理、声音输出、音量控制、音视频同步、网络传输与流控(RTP/RTCP)等功能。

  音频设备—audio_device
  源代码在webrtc\modules\audio_device\main目录下,包含接口和各个平台的源代码。
  在windows平台上,WebRTC采用的是Windows Core Audio和Windows Wave技术来管理音频设备,还提供了一个混音管理器。
  利用音频设备,可以实现声音输出,音量控制等功能。

  音频编解码—audio_coding
  源代码在webrtc\modules\audio_coding目录下。
  WebRTC采用iLIBC/iSAC/G722/PCM16/RED/AVT编解码技术。
  WebRTC还提供NetEQ功能—抖动缓冲器及丢包补偿模块,能够提高音质,并把延迟减至最小。
  另外一个核心功能是基于语音会议的混音处理。

  声音加密–voice_engine_encryption
  和视频一样,WebRTC也提供声音加密功能。

  声音文件
  该功能是可以用本地文件作为音频源,支持的格式有Pcm和Wav。
  同样,WebRTC也可以录制音频到本地文件。

  声音处理–audio_processing
  源代码在webrtc\modules\audio_processing目录下。
  声音处理针对音频数据进行处理,包括回声消除(AEC)、AECM、自动增益(AGC)、降噪处理等功能,用来提升声音质量。

  网络传输与流控
  和视频一样,WebRTC采用的是成熟的RTP/RTCP技术。

  WebRTC的官网是http://www.webrtc.org/,其中的FAQ解答了很多大家关心的问题。有这么几点可以关注:
  1.license
  采用BSD licenses,可以用于商业软件;即使你修改了源代码,也不必公开你修改的部分。

  2.为什么WebRTC要免费
  音视频针对目前的互联网应用,还是至关重要的。google这样做的目的,无非是吸引大量的开发者在chrome平台上开发音视频相关应用,和当年微软windows集成IE是一个道理。

  3.下载和编译
  a).下载google的源码工具depot_tools:
  svn co http://src.chromium.org/svn/trunk/tools/depot_tools
  并把depot_tools添加到系统的环境变量PATH里;
  b).下载git工具:并把git添加到系统的环境变量PATH里;
  c).创建webrtc工作目录,并在该目录下运行:
  gclient config https://webrtc.googlecode.com/svn/trunk
  gclient sync –force
  
  sync命令也会产生基于本地环境(Linux:make, OSX: XCode, Windows: Visual Studio)的build文件。

  也可以用命令:
  gclient runhooks –force

  对windows平台,在trunk目录下,已经有针对Visual Studio的工程文件:
  webrtc.sln

  好了,打开它,这就可以编译了。
  
  注:
  webrtc默认使用了
  C:\Program Files\Microsoft SDKs\Windows\v7.1\Samples\multimedia\directshow\baseclasses。
  
  我的机器上只有v7.0的sdk,于是构造了一个v7.1的目录,
  仅包含Samples\multimedia\directshow\baseclasses。   

重点在这里
专注RTC和音视频相关领域,支持开源,相关交流请关注微信公众号:blackerteam,或者发邮件到: blacker@rtc.help
http://www.cnblogs.com/lingyunhu/category/626157.html (这个很好)
http://www.cnblogs.com/fangkm/category/670346.html (这个补充)

基于Web浏览器的实时通信系统(WebRTC)
http://blog.chinaunix.net/uid-26000296-id-4841497.html


webrtc

Q-municate - QuickBlox Developers (API docs, code samples, SDK)
Quick Links | WebRTC
WebRTC Experiments & Demos ® Muaz Khan
webrtcHacks
WebRTC
WebRTC samples
discuss-webrtc
Identifiers for WebRTC’s Statistics API
WebRTC中文网-最权威的RTC实时通信平台

ios
cpp
Open Hub
JSON在线工具
IETF

linux

Linux
The Linux Documentation Project
FreeBSD 使用手册
Debian 管理员手册

ffmpeg

Install ffplay from the ffmpeg package.
https://github.com/Homebrew/legacy-homebrew/issues/6880

When you do brew install ffmpeg, it installs: ffmpeg, ffprobe, and ffserver. Missing from this list is ffplay. Can this be fixed? Thanks in advance!

Do you have SDL installed? I think ffplay only builds if the SDL library is available.

  1. brew install sdl –use-gcc
  2. brew uninstall ffmpeg
  3. brew install ffmpeg –use-gcc

Added a –with-ffplay option in cdcb773 that should take the guesswork out of knowing when installing FFmpeg will build ffplay.

ffplay http://url-to-gif-or-audio-or-video