conversations
listlengths 2
2
| source
stringclasses 1
value | score
float64 1
1
|
---|---|---|
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > iOS >开发准备\n\n# 开发准备\n\n最近更新时间: 2023-03-10 10:52:54\n\n本文主要介绍开发前的准备工作,包括设备、系统及开发环境的要求等。\n\n# 设备以及系统要求\n\n * 设备要求:iPhone 5s 及以上\n * 系统要求:iOS 9.0 及以上\n\n# 开发环境\n\n * Xcode 开发工具。[App Store下载地址](https://itunes.apple.com/cn/app/xcode/id497799835?ls=1&mt=12)\n * 安装 CocoaPods。[了解 CocoaPods 使用方法](https://guides.cocoapods.org/)\n\n# 版本升级需知\n\n * v5.0.0 版本起,去除 HappyDNS.framework\n * v5.1.0 版本起,开始使用 FFmpeg,版本号为 v4.1\n\n> 注意:会与其它同样使用 FFmpeg 的 SDK 产生符号重复。为避免冲突,建议相同的依赖库只保留一份。\n>\n> 一般 Xcode Build 时,不会提示符号重复。但程序运行时,会出现崩溃。可在 “Build Settings” -> “Other Linker\n> Flags” 下添加 “-all_load” 选项,将使 Xcode Build 时,提示具体是哪个 SDK 存在符号重复。\n\n# 导入实时音视频 SDK\n\n## 通过 CocoaPods 导入\n\n[CocoaPods](https://cocoapods.org/) 是针对 Swift 和 Objective-C 的依赖管理工具,它能够将使用类似\nQNRTCKit-iOS 的第三方库的安装过程变得非常简单和自动化,您能够用下面的命令来安装它:\n\n \n \n $ sudo gem install cocoapods\n \n\n### Podfile\n\n为了使用 CocoaPods 集成 QNRTCKit-iOS 到您的 Xcode 工程当中,您需要编写您的 `Podfile`\n\n \n \n target 'TargetName' do\n pod 'QNRTCKit-iOS'\n end\n \n\n默认为真机版,若需要使用模拟器 + 真机版,则改用如下配置\n\n \n \n pod \"QNRTCKit-iOS\", :podspec => 'https://raw.githubusercontent.com/pili-engineering/QNRTC-iOS/master/QNRTCKit-iOS-universal.podspec'\n \n\n> 注意:鉴于目前上架 App Store 时只支持动态库真机版本,请在 App 上架前更换至真机版本。\n\n然后,运行如下的命令:\n\n \n \n $ pod install\n \n\n## 手动导入\n\n[点击下载](https://github.com/pili-engineering/QNRTC-iOS/tree/master/Pod)相应版本的\nSDK,将下载好的动态库文件 QNRTCKit.framework 导入到您的 Xcode 工程当中。\n\n动态库链接到工程中的方式,如下所示:\n\n * **Step 1:**\n\n右键当前项目文件夹,选择 `Add Files to xxx` \n\n * **Step 2:**\n * 选中 `Destination` 的 `Copy items if needed`\n * 选中 `Added folders` 的 `Create groups`\n * 选中 `Add to targets` 中需要引入 SDK 的 Target\n * 找到刚下载好的 QNRTCKit.framework\n * 点击 `Add`\n\n\n\n * **Step 3:**\n\n在项目工程配置 `General` 中将两个 SDK 的 `Embed` 设置为 `Embed & Sign`\n\n\n * **Step 4:**\n\n在需要使用的类中引入头文件\n\n \n \n #import <QNRTCKit/QNRTCKit.h>\n \n\n> 注意:\n>\n> 1)如果运行后程序 crash,报错信息标识**动态库无法找到`image not found`**,说明 SDK 没有正常\n> Embed,可以按文档流程重新引入一次。示例中使用的 xcode 版本为 Version 13.1 (13A1030d),其他版本 xcode\n> 的动态库引入方式可能会有差异。\n>\n> 2)从 v5.1.0 起,请务必在工程配置 “Build Phases” -> “Link Binary With Libraries” 下添加\n> libbz2.tbd、libiconv.tbd、libz.tbd 系统配置库。\n\n# 添加相关权限\n\n我们需要在 Info.plist 文件中添加相应权限的说明,否则程序在 iOS 10 及以上系统会出现崩溃。需要添加如下权限:\n\n * 麦克风权限:Privacy - Microphone Usage Description 是否允许 App 使用麦克风\n * 相机权限:Privacy - Camera Usage Description 是否允许 App 使用相机\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > iOS >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2024-07-15 14:41:19\n\n本文将介绍如何快速实现一个基本的实时音视频应用,该应用拥有 SDK 基本的连麦功能,包括 **加入房间** 、**采集** 、**发布** 、**订阅**\n等过程。\n\n> 若您的开发环境还没有搭建完成,SDK\n> 还未导入,请先参考[开发准备](https://developer.qiniu.com/rtc/quick_start/8831/prepare-\n> ios-development)文档进行 SDK 的导入等工作。 若您对实时音视频的**发布** 、**订阅**\n> 等基本流程还不熟悉,请先参考[基本概念](https://developer.qiniu.com/rtc/quick_start/9909/the-\n> rtc-basic-concept)对实时音视频通话过程中的相关概念略作了解。\n\n# 初始化\n\n首先,在进行 SDK 接口调用之前,需要在 viewController 生命周期中的 viewDidLoad 中进行初始化操作:\n\n \n \n QNRTCConfiguration *configuration = [QNRTCConfiguration defaultConfiguration];\n [QNRTC initRTC:configuration];\n \n\n# 添加视频渲染视图\n\n用户需要在 self.view 视图布局中期望的位置,添加两个 View 分别用来做本地视频画面预览窗口和远端视频画面渲染窗口。\n\n示例代码如下:\n\n \n \n QNVideoGLView *localPreview = [[QNVideoGLView alloc] init];\n localPreview.frame = CGRectMake(0, 0, 360, 640);\n [self.view addSubview:localPreview];\n \n QNVideoGLView *remoteView = [[QNVideoGLView alloc] init];\n remoteView.frame = CGRectMake(0, 640, 360, 640);\n [self.view addSubview:remoteView];\n \n\n# 创建音视频通话核心类\n\n本操作推荐在 viewController 生命周期中的 viewDidLoad 中完成\n\n \n \n QNRTCClient *rtcClient = [QNRTC createRTCClient];\n rtcClient.delegate = self;\n \n\n其中,rtcClient.delegate 是\n[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n对象,[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n为音视频通话过程中必须实现的事件回调代理。\n\n# 创建音视频采集 Track\n\nTrack 代表了音视频通话过程中的一路音频或者一路视频,本文仅介绍一路音视频连麦的场景,创建方式如下:\n\n \n \n QNCameraVideoTrack *cameraVideoTrack = [QNRTC createCameraVideoTrack];\n QNMicrophoneAudioTrack *microphoneAudioTrack = [QNRTC createMicrophoneAudioTrack];\n \n\n创建好本地视频 Track 后即可设置预览窗口,代码如下:\n\n \n \n [cameraVideoTrack play:localPreview];\n \n\n> **注意** :创建 Track 需要 App 获取设备摄像头、麦克风采集相关的权限,请确保您的应用已经获取该权限,否则数据采集将会失败,可参考\n> [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\n> iOS/blob/master/QNRTC-API-Examples/Api-Examples-iOS/Info.plist) 实现。\n\n# 加入房间\n\n完成初始化以及本地音视频 Track 创建后,就可以调用\n[QNRTCClient.join](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#join%5B1/2%5D) 加入房间了。\n\n> 加入房间需要携带 [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-\n> rtc-basic-concept#room_token)\n>\n> 1. [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\n> basic-concept#room_token) 建议通过您的服务端生成,签算方式可参考 [RoomToken\n> 签发服务](https://developer.qiniu.com/rtc/8813/roomToken)\n> 2.\n> 若您的服务端还没有实现相关代码,可参考[管理实时音视频](https://developer.qiniu.com/rtc/9858/applist#4)文档在\n> [portal](https://portal.qiniu.com/app) 上生成临时的 Token,需要注意 **UserID不可重复** 。\n>\n\n示例代码如下:\n\n \n \n [rtcClient join:token];\n \n\n加入房间成功后会触发\n[QNRTCClientDelegate.didConnectionStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didConnectionStateChanged)\n回调 [QNConnectionStateConnected](https://developer.qiniu.com/rtc/9255/quick-\nstart-iOS/9254) 状态。此时,可通过发布、订阅等操作来实现音视频的推送和接收。\n\n在进入音视频通话房间之后,用户可以根据业务场景的需求,在适当的时间调用离开房间的接口退出连麦,详情请见[房间管理](https://developer.qiniu.com/rtc/development_guidelines/9261/room-\nmanagement-iOS)。\n\n> **注意** :加入、离开房间代表一次音视频通话的开始和结束,一次会话仅需调用一次加入、离开的操作即可,无需重复调用。\n\n# 发布本地音视频 Track\n\n成功加入房间后,即可在\n[QNRTCClientDelegate.didConnectionStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didConnectionStateChanged)\n回调中调用以下代码进行本地 Track 的发布:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didConnectionStateChanged:(QNConnectionState)state disconnectedInfo:(QNConnectionDisconnectedInfo *)info {\n dispatch_async(dispatch_get_main_queue(), ^{ \n if (QNConnectionStateConnected == state) {\n [self.client publish:@[cameraVideoTrack, microphoneAudioTrack] completeCallback:^(BOOL onPublished, NSError *error) {\n if (onPublished) {\n \t// 发布成功了\n } else {\n \t// 发布失败了\n }\n }];\n } \n });\n }\n \n\n发布成功后,本地通过\n[QNPublishResultCallback.onPublished](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNPublishResultCallback)\n获得发布成功的结果。而远端用户则会收到\n[QNRTCClientDelegate.didUserPublishTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didUserPublishTracks)\n发布成功的回调。\n\n在成功发布之后,用户可以根据业务场景的需求,在适当的时间调用取消发布的接口\n[QNRTCClient.unpublish](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#unpublish),取消发布相应的\nTrack,详情请见[发布与订阅](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-\nand-subscribe-iOS)。\n\n# 订阅远端音视频 Track\n\n当远端成功发布音视频数据后,SDK 默认会进行自动订阅,订阅成功后将会收到\n[QNRTCClientDelegate.didSubscribedRemoteVideoTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didSubscribedRemoteVideoTracks)\n的回调,此时在回调内部渲染显示远端窗口:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID {\n dispatch_async(dispatch_get_main_queue(), ^{\n for (QNRemoteVideoTrack * videoTrack in videoTracks) {\n [videoTrack play:remoteView];\n }\n });\n }\n \n\n在成功订阅之后,用户可以根据业务场景的需求,在适当的时间调用取消订阅的接口\n[QNRTCClient.unsubscribe](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#unsubscribe),取消订阅相应的\nTrack,详情请见[发布与订阅](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-\nand-subscribe-iOS)。\n\n# 离开房间\n\n当音视频通话结束,调用以下代码离开房间:\n\n \n \n [self.client leave];\n \n\n> **注意** :离开房间代表本地音视频通话的结束,将无法发布本地音视频,也无法订阅远端音视频。\n\n# 销毁\n\n在整个 viewController 销毁时,用户需要调用以下代码对资源进行释放,一般此操作建议在 viewController 生命周期的\n`dealloc` 之前进行,示例代码如下:\n\n \n \n - (void)viewDidDisappear:(BOOL)animated {\n [QNRTC deinit];\n [super viewDidDisappear:animated];\n }\n \n\n# 示例代码\n\n按照上述流程即可实现一个基本的实时音视频通话应用,完整的示例代码可参考 [API-Examples-\niOS](https://github.com/pili-engineering/QNRTC-iOS/blob/master/QNRTC-API-\nExamples/Api-Examples-iOS/Module/Video/CameraVideo/CameraVideoExample.m)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频SDK 概览"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Web >SDK 概览\n\n# SDK 概览\n\n最近更新时间: 2024-06-20 19:23:04\n\n# SDK 介绍\n\n这是一款适用于 Web 平台的七牛实时音视频 SDK,提供了包括音视频通话、静音、发布、订阅等多种功能,基于此 SDK,您可以很方便地在 Web\n上开发出一款基于实时音视频的应用。 \n其中包括但不限于以下场景\n\n * 在线教育\n * 主播观众连麦\n * 视频会议\n * 一对一社交\n * 狼人杀等依赖实时音视频通话的游戏\n * 在线客服\n * 在线抓娃娃\n\n您可以访问 [Demo页面](https://demo-rtc.qiniuapi.com) ,体验我们最新的 Demo 效果。(请使用最新版 Chrome\n浏览器)\n\n# SDK 功能列表\n\n以下是 SDK 截止到最新版本所提供的功能列表\n\n功能| 版本 \n---|--- \n基本的音视频通话功能| v0.1.0 \n支持内置音视频采集| v0.1.0 \n支持 Typescript| v0.1.0 \n支持踢人功能| v0.1.0 \n支持静音功能| v0.1.0 \n支持帧率配置| v0.1.0 \n支持视频尺寸配置| v0.1.0 \n支持自动重连| v0.1.0 \n支持丰富的消息回调| v0.1.0 \n支持音视频码率的配置| v0.1.1 \n支持 USB 外置媒体设备| v0.1.1 \n支持配置服务端合流| v0.2.0 \n支持本地音视频采集数据的回调| v0.2.0 \n支持远端音视频渲染数据的回调| v0.2.0 \n支持主流浏览器| v1.0.0 \n支持屏幕/窗口分享| v1.0.0 \n支持外部音频导入| v1.0.0 \n支持单用户多流的场景| v2.0.0 \n支持动态订阅| v2.0.0 \n支持录制屏幕捕获声音| v2.3.0 \n支持发送文本消息| v2.3.0 \n支持视频大小流| v2.3.1 \n支持 Safari 屏幕共享| v2.4.1 \n支持切换图片 track| v2.4.1 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Web >开发准备\n\n# 开发准备\n\n最近更新时间: 2022-06-08 16:46:46\n\n# 接入之前\n\n> **浏览器只允许 localhost 或者 https 页面访问媒体设备(摄像头等),请先检查确保在该环境下运行 SDK。**\n\n# 接入流程\n\n在开始编写代码之前,请先确认您已经对这个产品有了大概的了解,并且已经完成了\n[七牛实时音视频云接入流程](https://developer.qiniu.com/rtc/10155/process)。\n\n> 当您已经可以随时生成实时音视频云的 RoomToken 时(在控制台手动生成,或者调用后端生成都可以), 就认为完成了接入流程,可以准备开发工作了\n\n# 引入 SDK\n\n我们提供了两种方式引入方式,您可以直接下载 JS 文件,也可以通过 `npm` 完成引入\n\n## NPM 安装\n\n运行下方的命令即可通过 `npm` 引入我们的 SDK\n\n \n \n npm install --save qnweb-rtc\n \n\n如果想要更新到最新版本或者指定版本,运行下列命令\n\n \n \n npm install --save qnweb-rtc@latest # 最新版本\n npm install --save [email protected] # 指定版本\n \n\n> 我们更加推荐您使用 [yarn](https://yarnpkg.com/zh-Hans/) 来管理 npm 模块 \n> 通过 `yarn add qnweb-rtc` 引入 SDK,通过 `yarn add qnweb-rtc@latest` 来更新版本\n\n安装好后,运行以下代码访问 SDK 的入口\n\n \n \n import QNRTC from \"qnweb-rtc\";\n \n console.log(\"current version is\", QNRTC.VERSION);\n \n\n运行时看到打印的 `current version` 表示引入成功\n\n> 注意!我们默认提供的是 **没有 polyfill** 的 [ECMAScript 5](https://www.ecma-\n> international.org/ecma-262/5.1/) 代码。\n\n## 直接导入 JS 文件\n\n每次发布版本,我们都会将最新的 SDK JS 文件放在我们的 [Github](https://github.com/pili-\nengineering/QNRTC-Web/blob/master/Release/qnweb-rtc.js) 上,点击链接即可获取当前最新的 SDK JS\n文件。 所以,每次想要升级版本时,只需要访问我们的 [Github](https://github.com/pili-engineering/QNRTC-\nWeb/blob/master/Release/qnweb-rtc.js) 页面,然后替换一下自己的 js 文件即可。\n\n> 如果想要使用特定版本的 SDK,可以访问我们 Github 的 [Release](https://github.com/pili-\n> engineering/QNRTC-Web/releases) 页面查看。\n\nSDK 的 JS 文件在导入页面后,会自动创建一个全局对象 `QNRTC`,这个对象的成员包括了 SDK 所导出的所有模块和对象。\n\n \n \n // 当页面资源加载完成后\n window.onload = () => {\n console.log(\"current version is\", QNRTC.VERSION);\n }\n \n\n运行时看到打印的 `current version` 表示引入成功。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Web >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2022-07-14 15:44:44\n\n如果您已经完成了上文中提到的开发准备,现在就让我们开始编写一个基本的实时音视频应用吧。这个应用会展示 SDK 基本的连麦功能,包括\n加入房间,采集,发布,订阅 等过程。但是在实际的连麦应用开发过程中,是需要后端介入的(用于给用户鉴权并生成\nRoomToken),在这里为了减少开发的时间,请您先预先生成 2 个 RoomToken(要求同一个 APPID,同一个 RoomName,不同的\nUserName)。\n\n> 如果您还不知道如何生成 RoomToken,请先阅读\n> [七牛实时音视频云接入指南](https://developer.qiniu.com/rtc/8813/roomToken)\n\n下文代码中的 `ROOMTOKEN_1` 和 `ROOMTOKEN_2` 表示生成的两个RoomToken。 \n我们将会编写 1 个独立的 `html` 页面,主要包括采集本地的摄像头/麦克风数据并将其发布与订阅发布流并将其展示在页面上的功能。\n\n> 您可以从 [这里](https://github.com/pili-engineering/QNRTC-SampleCode-Video-\n> Basic/tree/master/One-On-One-Video/One-On-One-Video-Web/native) 查看这个 Demo\n> 最终的成品代码,但是还是建议您在按照步骤阅读完之后再参阅。\n\n# 引入 SDK 并准备页面\n\n如果一切准备就绪,让我们开始吧,首先创建一个 `oneOnOne.html` 文件。\n\n \n \n <!DOCTYPE html>\n <html>\n <head>\n <meta charset=\"utf-8\" />\n <title>One on One Sample</title>\n <script src=\"https://docs.qnsdk.com/qnweb-rtc.js\"></script>\n <style>\n #localtracks, #remotetracks {\n width: 320px;\n height: 240px;\n background: #000;\n }\n </style>\n </head>\n <body>\n <label>请输入 RoomToken 加入房间开始连麦</label>\n <input id=\"roomtoken\" type=\"text\" />\n <button onclick=\"joinRoom()\">加入房间</button>\n <p>本地视频</p>\n <div id=\"localtracks\"></div>\n <p>远端视频</p>\n <div id=\"remotetracks\"></div>\n </body>\n </html>\n \n\n> **<https://docs.qnsdk.com/qnweb-rtc.js> 该链接仅供测试,正式环境需要自行准备 JS 文件或自行 NPM\n> 下载。JS SDK 文件 放在我们的 [Github](https://github.com/pili-engineering/QNRTC-\n> Web/blob/master/Release/qnweb-rtc.js) 上,只需要访问我们的\n> [Github](https://github.com/pili-engineering/QNRTC-\n> Web/blob/master/Release/qnweb-rtc.js) 页面,然后替换一下自己的 js 文件即可。**\n\n然后在项目的目录下起一个 `http` 服务,打开 Chrome 通过 `localhost` 或者 `127.0.0.1` 访问刚刚那 2\n个页面(因为屏幕和摄像头采集只能在 `localhost` 或者 `https` 下完成), 观察到控制台打印出了 sdk 的版本信息说明这一步完成了。\n\n> 如果您不知道如何在本地起一个 `http` 服务,推荐使用基于 nodejs 的 [http-\n> server](https://github.com/indexzero/http-\n> server)。可以参考[这篇文章](http://www.cnblogs.com/xing901022/p/4286273.html)。\n\n> 注意!Chrome 只允许 `localhost` 或者 `https` 的网络页面访问媒体设备。请在之后的开发和上线中注意这一点\n\n# 加入房间\n\n上文提到过,SDK 所有的功能都是从 `RoomToken` 开始的,所以加入房间只需要将 `RoomToken` 作为参数传给 SDK 就可以了。编辑\n`html` 在 `<script>` 中添加如下代码。\n\n \n \n // 确认引入成功\n console.log(\"current version\", QNRTC.VERSION);\n // 这里采用的是 async/await 的异步方案,您也可以根据需要或者习惯替换成 Promise 的写法\n async function joinRoom() {\n // 创建QNRTCClient对象\n const client = QNRTC.createClient();\n const roomTokenInput = document.getElementById(\"roomtoken\");\n const roomToken = roomTokenInput.value;\n // 这里替换成刚刚生成的 RoomToken\n await client.join(roomToken);\n console.log(\"joinRoom success!\");\n }\n \n\n再次访问这个页面,输入 `ROOMTOKEN_1` 点击加入房间按钮,看到控制台打印出 `joinRoom success!` 表示这一步完成。\n\n# 采集并发布本地的音视频轨\n\n接下来,我们的任务是在 `html` 下采集本地的媒体数据并把它发布到房间中。在编写代码之前,请先确认您的电脑已经连接了摄像头和麦克风设备(支持 USB\n设备)。\n\n> 如果没有摄像头或者没有麦克风(缺少其中一个),请稍微修改下文中的采集参数关闭音频或者视频采集\n\n这里我们将要采集 2 个音视频轨,分别是 `摄像头视频轨` 和 `麦克风音频轨`。\n\n编辑 `html` 中的 `<script>`,添加如下代码。\n\n \n \n // 增加一个函数 publish,用于采集并发布自己的媒体流\n // 这里的参数 client 是指刚刚初始化的 QNRTCClient 对象\n async function publish(client) {\n // 同时采集麦克风音频和摄像头视频轨道。\n // 这个函数会返回一组audio track 与 video track\n const localTracks = await QNRTC.createMicrophoneAndCameraTracks();\n console.log(\"my local tracks\", localTracks);\n // 将刚刚的 Track 列表发布到房间中\n await client.publish(localTracks);\n console.log(\"publish success!\");\n }\n \n\n这个函数很简单,主要就 2 个语句,我们现在仔细分析一下这 2 行代码分别做了什么。 \n第一句,调用了 QNRTC 提供的静态方法 `createMicrophoneAndCameraTracks`\n,从名字我们可以看出,这个方法负责采集本地的麦克风频轨与摄像头轨道,并将其包装成 SDK 的 `Track` 对象并以列表的形式返回给我我们。\n\n第二句,调用了 QNRTCClient 提供的方法 `publish` ,将本地 `Track` 发布至远端。\n\n然后在刚刚 `joinRoom` 的函数末尾调用我们刚刚编写的 `publish`\n\n \n \n async function joinRoom() {\n // 创建QNRTCClient对象\n const client = QNRTC.createClient();\n const roomTokenInput = document.getElementById(\"roomtoken\");\n const roomToken = roomTokenInput.value;\n // 这里替换成刚刚生成的 RoomToken\n await client.join(roomToken);\n console.log(\"joinRoom success!\");\n await publish(client);\n }\n \n\n现在访问页面,加入房间后 Chrome 应该会申请媒体设备的权限,同意之后观察控制台打印出 `publish success!` 表示发布成功。 \n如果您有需要想要看到自己刚刚采集的视频画面,可以在 `publish` 函数的末尾添加如下代码\n\n \n \n ...\n ...\n await client.publish(localTracks);\n console.log(\"publish success!\");\n \n // 在这里添加\n // 获取页面上的一个元素作为播放画面的父元素\n const localElement = document.getElementById(\"localtracks\");\n // 遍历本地采集的 Track 对象\n for (const localTrack of localTracks) {\n console.log(localTrack)\n // 如果这是麦克风采集的音频 Track,我们就不播放它。\n if (localTrack.isAudio()) continue;\n // 调用 Track 对象的 play 方法在这个元素下播放视频轨\n localTrack.play(localElement, {\n mirror: true\n });\n }\n \n\n下一步,我们将在 `html` 中完成订阅的代码,实现对我们刚刚发布的音视频轨道的订阅。\n\n# 订阅远端发布的音视频轨\n\n从上文发布的过程中我们可以知道,一个用户可以发布多个 `Track` ,而在实际需求中我们不一定会把他所有发布的 Track\n都订阅(可能只订阅音频之类的),所以订阅的目标是以 `Track` 为单位的。 \n那么,我怎么知道房间中有哪些 `Track` ,这些 `Track` 又分别对应哪些用户呢?这就是我们接下来讲述的重点。\n\n我们可以通过 SDK 的 `user-published` 事件获取当前房间的 `Track` 列表:\n\n> 需要在join房间之前监听对应事件,`join` 加入房间成功后,`user-published` 会返回当前所有房间内已发布 `Track`\n> 列表以及用户 `userID` 。\n\n进入房间后,当一个远端用户发布了自己的 `Track` ,此时在我们这边也会触发 `user-published` 事件,事件会带上远端用户的\n`userID` 以及所发布的 `Track` 列表。\n\n具体让我们通过代码来理解,在 `oneOnOne.html` 的 `<script>` 中添加函数 `subscribe` 和\n`autoSubscribe`, `subscribe` 用于传入 TrackInfo 完成订阅操作并播放订阅流,`autoSubscribe`\n用于实时检测房间的 TrackInfo 变化并在合适的时机调用 `subscribe`。\n\n \n \n // 这里的参数 client 是指刚刚初始化的 QNRTCClient 对象\n async function subscribe(client, tracks) {\n // 传入 Track 对象数组调用订阅方法发起订阅,异步返回成功订阅的 Track 对象。\n const remoteTracks = await client.subscribe(tracks);\n \n // 选择页面上的一个元素作为父元素,播放远端的音视频轨\n const remoteElement = document.getElementById(\"remotetracks\");\n // 遍历返回的远端 Track,调用 play 方法完成在页面上的播放\n for (const remoteTrack of [...remoteTracks.videoTracks, ...remoteTracks.audioTracks]) {\n remoteTrack.play(remoteElement);\n }\n }\n \n\n> 在一次批量订阅中,如果想区分返回的 Track(比如播放屏幕分享的 `Track` 时给更大的界面),和上文一样,通过 tag 来区分。这里的 tag\n> 来自于远端采集它的时候所指定的 tag。\n\n代码不多,总共就两步。先是发起订阅拿到返回的 `Track` 对象,之后调用 `Track` 的 play 方法在页面上播放。 \n下面我们实现 `autoSubscribe` 将 `TrackInfo` 传给 `subscribe`。\n\n \n \n // 这里的参数 client 是指刚刚初始化的 QNRTCClient 对象, 同上\n function autoSubscribe(client) {\n // 添加事件监听,当房间中出现新的 Track 时就会触发,参数是 trackInfo 列表\n client.on(\"user-published\", (userId,tracks) => {\n console.log(\"user-published!\", userId,tracks);\n subscribe(client, tracks)\n .then(() => console.log(\"subscribe success!\"))\n .catch(e => console.error(\"subscribe error\", e));\n });\n // 就是这样,就像监听 DOM 事件一样通过 on 方法监听相应的事件并给出处理函数即可\n }\n \n\n最后,让我们在 `html` 的 `joinRoom` 中调用 `autoSubscribe` 即可\n\n \n \n async function joinRoom() {\n // 创建QNRTCClient对象\n const client = QNRTC.createClient();\n // 需要先监听对应事件再加入房间\n autoSubscribe(client);\n const roomTokenInput = document.getElementById(\"roomtoken\");\n const roomToken = roomTokenInput.value;\n // 这里替换成刚刚生成的 RoomToken\n await client.join(roomToken);\n console.log(\"joinRoom success!\");\n await publish(client);\n }\n \n\n好啦,这个时候再访问这个页面,使用两个不同的 `RoomToken` 分别进入房间中,在 `html`\n中看到你自己和屏幕的画面就代表成功啦。您成功完成了一个最简单的一对一连麦应用(而且还支持单用户多流)。\n\n## 接下来...\n\n经过上面的步骤之后,相信您已经对一次连麦互动的流程以及 SDK 的使用有了大概的了解。如果您已经准备正式开始接入我们的 SDK,下面一些建议可以让您更加熟悉\nSDK。\n\n * SDK 使用中每个功能的细节都可以通过左侧的功能列表去查看\n * 如果您想了解 SDK 的架构以及所暴露的模块细节,可以阅读 [API 文档](https://developer.qiniu.com/rtc/9246/WEB%20API%20%E6%A6%82%E8%A7%88) 。\n\n> 如果您在使用过程中遇到什么疑问,或者遇到了 BUG,请在 Github 的 [issue](https://github.com/pili-\n> engineering/QNRTC-Web/issues) 列表提问,我们会尽快为您解答。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频浏览器兼容性说明"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Web >浏览器兼容性说明\n\n# 浏览器兼容性说明\n\n最近更新时间: 2022-01-05 15:25:02\n\n# 概述\n\nWebRTC 是一个支持网页浏览器进行实时语音对话或视频对话、进行实时数据传输的一组 JavaScript API。\n\n七牛 RTC Web SDK 使用了 WebRTC 技术实现实时音视频功能。因此,SDK 是否可用,依赖于当前浏览器对 WebRTC API\n的支持情况。目前 WebRTC 主要在桌面端的 Chrome、 Firefox️、Safari 等浏览器,以及移动端的 Safari\n浏览器上有较为完整的支持。本文将分别介绍桌面端和移动端的浏览器兼容性情况。\n\n> 由于平台和一些应用内置浏览器的实现各不相同,无法涵盖所有浏览器,因此在通话前建议先对浏览器兼容性支持情况做检测,具体检测方法参考\n> [浏览器兼容性检测](https://developer.qiniu.com/rtc/10232/check-system-requirements)。\n\n# 桌面浏览器\n\n目前七牛 RTC Web SDK在桌面端支持的浏览器及版本如下:\n\n> 当前桌面浏览器中,Chrome 对 WebRTC API 的支持情况最好,建议使用最新版本的 Chrome 浏览器。\n\n操作系统 | 浏览器 | 版本兼容性 | 拉流 | 推流 | 屏幕共享 \n---|---|---|---|---|--- \nMacOS | Safari 浏览器 | 11.0 或以上版本 | ✔️ | ✔️ | ✔️(Safari 13 或以上版本支持) \nChrome 浏览器 | 56.0 或以上版本 | ✔️ | ✔️ | ✔️(Chrome 72 或以上版本支持) \nFirefox 浏览器 | 56.0 或以上版本 | ✔️ | ✔️ | ✔️(Firefox 66或以上版本支持) \nEdge 浏览器 | 80 或以上版本 | ✔️ | ✔️ | ✔️ \n微信内置浏览器 | —— | ✔️ | ✔️ | ✖️ \n \nWindows \n \n \n \n| Chrome 浏览器 | 56 或以上版本 | ✔️ | ✔️ | ✔️(Chrome 72 或以上版本支持) \nFirefox 浏览器 | 56 或以上版本 | ✔️ | ✔️ | ✔️(Firefox 66 或以上版本支持) \nQQ浏览器 | 10.4 或以上版本 | ✔️ | ✔️ | ✖️ \nEdge 浏览器 | 80或以上版本支持 | ✔️ | ✔️ | ✔️ \n微信内置浏览器 | —— | ✔️ | ✖️ | ✖️ \n \n# 移动浏览器\n\n## Android\n\n目前七牛 RTC Web SDK 在 Android 上支持的浏览器情况如下:\n\n操作系统 | 浏览器 | 拉流 | 推流 | 屏幕共享 \n---|---|---|---|--- \n \n \nAndroid \n \n \n| Chrome浏览器 | ✔️ | ✔️ | ✖️ \nUC 浏览器(不支持) | ✖️ | ✖️ | ✖️ \nFirefox 浏览器 | ✔️ | ✔️ | ✖️ \nQQ 浏览器 | ✔️ | ✔️ | ✖️ \n企业微信浏览器 | ✔️ | ✔️ | ✖️ \n微信内置浏览器 (X5内核) | ✔️ | ✔️ | ✖️ \n \n> 以上列表中提供的浏览器可以大致表明兼容性情况,但由于Android\n> 设备上浏览器情况比较复杂,不同手机产商对自带浏览器内核或多或少做出改动,所以无法保证自带浏览器能够很好地支持 WebRTC,建议开发者使用 Chrome\n> 浏览器。\n>\n> 也可结合上面提到的[浏览器兼容性检测](https://developer.qiniu.com/rtc/10232/check-system-\n> requirements)方法,在使用之前先进行检测,通过测试之后再允许用户使用。\n\n## iOS\n\n目前七牛 RTC Web SDK 在 iOS 上支持的浏览器情况如下:\n\n操作系统 | 浏览器 | 版本兼容性 | 拉流 | 推流 | 屏幕共享 \n---|---|---|---|---|--- \n操作系统 | 浏览器 | 版本兼容性 | 拉流 | 推流 | 屏幕共享 \niOS 11.0.1 或以上版本 | Safari浏览器 | 11.0 或以上版本 | ✔️ | ✔️ | ✖️ \niOS 12.1.4 或以上版本 | Chrome 浏览器 | —— | ✔️ | ✖️ | ✖️ \niOS 12.1.4 或以上版本 | Edge浏览器 | —— | ✔️ | ✖️ | ✖️ \niOS 12.1.4 或以上版本 | 微信内置浏览器 | —— | ✔️ | ✖️ | ✖️ \niOS 12.1.4 或以上版本 | 企业微信内置浏览器 | —— | ✔️ | ✖️ | ✖️ \niOS 14.3 或以上版本 | Chrome 浏览器 | —— | ✔️ | ✔️ | ✖️ \niOS 14.3 或以上版本 | 微信内置浏览器 | 推荐最新版本 | ✔️ | ✔️ | ✖️ \niOS 14.3 或以上版本 | Edge 浏览器 | —— | ✔️ | ✔️ | ✖️ \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频SDK 概览"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Windows >SDK 概览\n\n# SDK 概览\n\n最近更新时间: 2022-11-11 16:42:29\n\n## 概述\n\nQNRTCWin 是七牛云推出的一款适用于 Win7 及以上版本 Windows 平台的实时音视频 C++\nSDK,提供了灵活的接口,支持高度定制以及二次开发。\n\n## 场景介绍\n\nQNRTCWin 适用于一对一、一对多、多对多的实时语音聊天、唱歌、教学、医疗等场景,同时可与其它平台 Android、iOS、Web、Linux\n等平台互通。\n\n## 下载地址\n\n * [Windows Demo 以及 SDK 下载地址](https://github.com/pili-engineering/QNRTC-Windows)\n\n## 功能列表\n\n功能| 版本 \n---|--- \n增加 Intel 和 Nvidia 硬件编码功能| v3.1.0(+) \n支持对 D3D 窗口的捕获能力| v3.1.0(+) \nsei 支持 uuid 设置| v3.1.0(+) \n桌面共享支持帧率设置| v3.1.0(+) \n合流支持停止时保持最后一帧功能| v3.0.2(+) \n增加单路转推成功的回调| v3.0.2(+) \n支持摄像头切换图片连麦| v3.0.1(+) \n支持添加自定义SEI 功能| v3.0.1(+) \n支持合流时单独设置 Track 填充模式| v3.0.1(+) \n支持设置渲染窗口画面填充模式| v3.0.1(+) \n支持对外部视频进行裁剪和缩放功能| v3.0.1(+) \n支持摄像头采集数据镜像功能| v3.0.1(+) \n增加远端用户重连中/重连成功消息通知| v3.0.0(+) \n增加音频加解密功能| v3.0.0(+) \n增加 dns 域名解析功能| v3.0.0(+) \n增加是否开启 qos 信息回调的接口| v3.0.0(+) \n增加单路转推是否为内部推流设置| v3.0.0(+) \n新增大小流功能| v2.4.0(+) \n新增单路转推功能| v2.4.0(+) \n新增收发自定义消息功能| v2.3.0(+) \n新增画面旋转功能| v2.3.0(+) \n摄像头采集画面新增裁剪和缩放的功能| v2.3.0(+) \n添加对端网络信令回调字段:远端用户 track 丢包率,远端用户 rtt| v2.3.0(+) \n添加本地统计回调字段:本地 rtt| v2.3.0(+) \n新增 unpublish 的回调| v2.3.0(+) \n新增创建自定义合流任务功能| v2.2.0(+) \n新增对外部编解码器的支持| v2.1.0(+) \n新增回声消除的动态开关| v2.1.0(+) \n新增 64bit 版本的支持| v2.1.0(+) \n新增媒体传输策略配置| v2.1.0(+) \n支持同时订阅多路视频 Track| v2.0.0(+) \n支持 I420 视频数据的剪裁| v1.1.0(+) \n支持其它原始数据格式转换为 I420 格式| v1.1.0(+) \n支持外部音频数据导入| v1.0.0(+) \n支持外部视频数据导入| v1.0.0(+) \n支持屏幕、窗口的采集| v1.0.0(+) \n支持视频渲染镜像功能| v1.0.0(+) \n基本的音视频通话功能| v0.2.0(+) \n支持纯音频通话| v0.2.0(+) \n支持物理和虚拟摄像头采集| v0.2.0(+) \n支持踢人功能| v0.2.0(+) \n支持音频调节功能| v0.2.0(+) \n支持视频帧率配置| v0.2.0(+) \n支持视频码率的配置| v0.2.0(+) \n支持视频尺寸配置| v0.2.0(+) \n支持网络自动重连| v0.2.0(+) \n支持获取通话质量统计信息| v0.2.0(+) \n支持房间状态回调| v0.2.0(+) \n支持本地音视频采集数据的回调| v0.2.0(+) \n支持远端音视频渲染数据的回调| v0.2.0(+) \n支持音视频设备插拔事件的回调| v0.2.0(+) \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Windows >开发准备\n\n# 开发准备\n\n最近更新时间: 2022-11-11 16:42:47\n\n## 开发语言以及系统要求\n\n * 开发语言:C++14\n * 系统要求:Windows 7 及以上版本的 Windows 系统\n\n## 开发环境\n\n * [Visual Studio 2017](https://www.visualstudio.com/zh-hans/vs/older-downloads/) 或 [Qt Creator](http://download.qt.io/archive/qt/)\n * Windows Platform\n\n## 导入 SDK\n\n将下载好的 SDK 拷贝到你的工程目录中 `$(ProjectDir)`,添加 `$(ProjectDir)Release\\include`\n到头文件引用目录,添加 `$(ProjectDir)Release\\lib` 到依赖库查找目录中,并拷贝 `QNRtcStreaming.dll`\n工程运行目录下,然后在代码中通过静态加载的方式加载 SDK 库,如下:\n\n \n \n #include \"QNRTCClientInterface.h\"\n #include \"QNRTCInterface.h\"\n #include \"QNTrackInterface.h\"\n #include \"QNErrorCode.h\"\n \n using namespace qiniu_v2;\n \n #pragma comment(lib, \"QNRtcStreaming.lib\")\n \n\n## 编译运行\n\n编译运行,验证以上配置是否正确,如果运行时提示缺少\n`XXX.dll`,则说明以上目录配置错误,需再检查下目录配置,以及动态库是否被拷贝至应用程序的工作目录。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Windows >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2022-03-24 16:34:11\n\n## 初始化\n\n首先配置 SDK 日志输出等级和存储位置:\n\n \n \n // 在程序初始化时调用此方法初始化 SDK log 配置,不调用 == 无输出\n QNRTC::SetLogFile(qiniu::kLogInfo, \"rtc-log\", \"rtc.log\");\n \n\n> 注:SDK log 输出每次以覆盖的方式写入文件,超过 100M 覆盖,中途没有文件大小及磁盘剩余空间的检测。\n\n * 创建音视频通话核心类(全局唯一):\n\n \n \n // 初始化全局参数,这里根据自己的需要设置相应参数\n QNRTCSetting setting;\n QNRTC::Init(setting, this);\n // 释放时调用 QNRTC::DestroyRtcClient 方法接口\n QNRTCClient* rtc_client_ptr_ = QNRTC::CreateClient(this);\n \n\n## 创建 Track:\n\nTrack 代表了音视频通话过程中的一路音频或者一路视频,本文仅介绍一路音视频连麦的场景,创建方式如下:\n\n \n \n QNCameraVideoTrackConfig camera_info = {{width, height, 30, 2000},\n {width, height, 30},\n video_dev_id,\n CAMERA_TAG,\n enable_simulcast_};\n QNCameraVideoTrack* camera_track_ptr = QNRTC::CreateCameraVideoTrack(camera_info, this);\n \n QNMicrophoneAudioTrackConfig micro_info = {{0, 0, 0, 32}, MICROPHONE_TAG};\n QNMicrophoneAudioTrack* microphone_audio_track_ptr =\n QNRTC::CreateMicrophoneAudioTrack(micro_info);\n \n\n## 枚举视频采集设备\n\n获取本地视频采集设备数量,以及其所支持的采集参数:\n\n \n \n // 获取本地视频采集设备数量\n int camera_count = QNRTC::GetCameraCount();\n // 枚举所有设备列表,及其所支持的采集参数,key:device id value:CameraDeviceInfo\n unordered_map<string, CameraDeviceInfo> camera_dev_map_; \n for (int i(0); i < camera_count; ++i) {\n \tCameraDeviceInfo ci = QNRTC::GetCameraInfo(i);\n \tcamera_dev_map_[ci.id] = ci;\n }\n \n\n## 加入房间\n\n上文提到过,SDK 所有的功能都是从 `RoomToken` 开始的,所以加入房间只需要将 `RoomToken` 作为参数传给 SDK\n就可以了。示例代码如下:\n\n \n \n rtc_client_ptr_->Join(_room_token);\n \n\n加入房间成功后会触发\n[QNClientEventListener.OnConnectionStateChanged](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnConnectionStateChanged)\n回调 QNConnectionState.CONNECTED 状态。此时即可进行发布、订阅等操作。\n\n在进入音视频通话房间之后,用户可以根据业务场景的需求在适当的时间调用离开房间的接口退出连麦,详情请见[房间管理](https://developer.qiniu.com/rtc/development_guidelines/9547/room-\nmanagement-windows)。\n\n> 注:此处 `_room_token` 建议开发者的应用程序从自己的 Server 端获取,关于 Server 如何生成 token\n> 可查阅[服务端开发文档](https://developer.qiniu.com/rtn/sdk/4538/server-api-\n> reference#5)。\n\n## 发布音/视频\n\n成功加入房间后,即可在\n[QNClientEventListener.OnConnectionStateChanged](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnConnectionStateChanged)\n回调中调用以下代码进行本地 Track 的发布:\n\n \n \n void CRtcDemoV2::OnConnectionStateChanged(qiniu::QNConnectionState state, const qiniu::QNConnectionDisconnectedInfo& info)\n {\n if (state == CONNECTED) {\n StartPublish();\n }\n }\n \n\n发布成功后,本地会收到\n[QNPublishResultCallback.OnPublished](https://developer.qiniu.com/rtc/api/9435/QNPublishResultCallback#OnPublished)\n回调。远端用户会收到\n[QNClientEventListener.OnUserPublished](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnUserPublished)\n回调。\n\n## 订阅远端音/视频\n\nSDK 收到远端发布\n[QNClientEventListener.OnUserPublished](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnUserPublished)\n的回调,在此回调内则可进行对 Track 的渲染窗口设置的操作,再进行订阅,如果用户默认设置了自动订阅,这里只需设置渲染窗口,不需要主动去订阅:\n\n注:用于渲染视频的窗口句柄,在 MFC 中直接使用窗口类的 m_hWnd 成员变量获取,Qt 中通过窗口类的 winId() 方法进行获取,。\n\n在成功订阅之后,用户可以根据业务场景的需求在适当的时间调用取消订阅的接口取消订阅相应的\nTrack,详情请见[发布与订阅](https://developer.qiniu.com/rtc/development_guidelines/9548/publish-\nand-subscribe-windows)\n\n## 离开房间\n\n当音视频通话结束,调用以下代码离开房间:\n\n \n \n rtc_client_ptr_->Leave();\n \n\n## 销毁\n\n用户需要调用以下代码对资源进行释放,一般此操作建议在程序生命周期的 `OnDestroy()` 中进行,示例代码如下:\n\n \n \n if (rtc_client_ptr_) {\n rtc_client_ptr_->Leave();\n }\n \n if (camera_track_ptr_) {\n QNRTC::DestroyLocalTrack(camera_track_ptr_);\n camera_track_ptr_ = nullptr;\n }\n \n if (screen_track_ptr_) {\n QNRTC::DestroyLocalTrack(screen_track_ptr_);\n screen_track_ptr_ = nullptr;\n }\n \n if (custom_video_track_ptr_) {\n QNRTC::DestroyLocalTrack(custom_video_track_ptr_);\n custom_video_track_ptr_ = nullptr;\n }\n \n if (microphone_audio_track_ptr_) {\n QNRTC::DestroyLocalTrack(microphone_audio_track_ptr_);\n microphone_audio_track_ptr_ = nullptr;\n }\n \n if (custom_audio_track_ptr_) {\n QNRTC::DestroyLocalTrack(custom_audio_track_ptr_);\n custom_audio_track_ptr_ = nullptr;\n }\n \n if (rtc_client_ptr_) {\n QNRTC::DestroyClient(rtc_client_ptr_);\n rtc_client_ptr_ = nullptr;\n }\n QNRTC::DeInint();\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频SDK 概览"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Linux >SDK 概览\n\n# SDK 概览\n\n最近更新时间: 2022-07-13 23:53:33\n\n## 概述\n\nQNRTC-Linux 是七牛云推出的一款适用于 Linux 平台的实时音视频 C++ SDK,提供了灵活的接口,支持高度定制以及二次开发。\n\n## 场景介绍\n\nQNRTC-Linux 适用于一对一、一对多、多对多的实时语音聊天、唱歌、教学、医疗等场景,同时可与其它平台 Android、iOS、Web、Windows\n等平台互通。\n\n## 下载地址\n\n * [Linux Demo 以及 SDK 下载地址](https://github.com/pili-engineering/QNRTC-Linux)\n\n## 功能列表\n\n功能| 版本 \n---|--- \n支持多重混音功能| v5.1.0(+) \n支持 arm_linux_gnueabihf 架构| v5.0.2(+) \n支持外部视频 h264| v5.0.1(+) \n增加单路转推成功的回调| v5.0.0(+) \n支持摄像头切换图片连麦| v5.0.0(+) \n支持合流时单独设置 Track 填充模式| v5.0.0(+) \n支持摄像头采集数据镜像功能| v5.0.0(+) \n增加远端用户重连中/重连成功消息通知| v5.0.0(+) \n新增大小流功能| v5.0.0(+) \n新增单路转推功能| v5.0.0(+) \n新增收发自定义消息功能| v5.0.0(+) \n新增创建自定义合流任务功能| v5.0.0(+) \n新增回声消除的动态开关| v5.0.0(+) \n支持同时订阅多路视频 Track| v5.0.0(+) \n支持外部音频数据导入| v5.0.0(+) \n支持外部视频数据导入| v5.0.0(+) \n基本的音视频通话功能| v5.0.0(+) \n支持纯音频通话| v5.0.0(+) \n支持音频调节功能| v5.0.0(+) \n支持视频帧率配置| v5.0.0(+) \n支持视频码率的配置| v5.0.0(+) \n支持视频尺寸配置| v5.0.0(+) \n支持网络自动重连| v5.0.0(+) \n支持获取通话质量统计信息| v5.0.0(+ \n支持房间状态回调| v5.0.0(+ \n支持本地音视频采集数据的回调| v5.0.0(+ \n支持远端音视频渲染数据的回调| v5.0.0(+) \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Linux >开发准备\n\n# 开发准备\n\n最近更新时间: 2022-06-15 16:57:31\n\n## 开发语言以及系统要求\n\n * 开发语言:C/C++\n * 系统要求:Linux 平台\n\n## 开发环境\n\n * Ubuntu 16.04+\n * CMake\n * GCC5 及以上\n\n> 用户可根据自己的开发习惯或环境自由选择开发方式,以下章节只介绍基于 `CMake` 生成 `Makefile`的开发配置。\n\n## 导入 SDK\n\n * 将 `Release/linux/include` 复制到自己的头文件目录\n * 将 `Release/linux/lib` 目录添加到项目库搜索路径\n\n## 编译运行 Demo\n\n \n \n cd src/linux/RtcDemo\n chmod a+x build.sh\n # x86_64\n ./build.sh x86_64\n # arm_linux_gnueabihf\n ./build.sh arm_linux_gnueabihf\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Linux >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2022-03-28 15:58:53\n\n## 初始化\n\n首先需要全局初始化 SDK,请确保仅调用一次\n\n \n \n using namespace std;\n using namespace qiniu;\n QNRTCSetting setting;\n QNRTC::Init(setting, nullptr);\n \n\n## 创建音视频通话核心类\n\n \n \n QNRTCClient* client = QNRTC::CreateClient(this);\n \n\n## 创建 Track\n\nTrack 代表了音视频通话过程中的一路音频或者一路视频,本文仅介绍一路音视频连麦的场景,创建方式如下:\n\n \n \n // 创建麦克风 Track\n QNMicrophoneAudioTrackConfig audio_track_config;\n audio_track_config.audio_quality = {sample_rate, channels, bits_per_sample, bitrate};\n QNMicrophoneAudioTrack audio_track = QNRTC::CreateMicrophoneAudioTrack(audio_track_config);\n \n // 创建相机 Track\n QNCameraVideoTrackConfig video_track_config;\n video_track_config.id = camera_device_id;\n video_track_config.capture_config = {width, height, fps};\n video_track_config.encoder_config = {width, height, fps, bitrate};\n QNCameraVideoTrack video_track = QNRTC::CreateCameraVideoTrack(video_track_config);\n \n\n## 枚举视频采集设备\n\n获取本地视频采集设备数量,以及其所支持的采集参数:\n\n \n \n // 获取本地视频采集设备数量\n int count = QNRTC::GetCameraCount();\n // 遍历本地视频采集设备\n for (int i = 0; i < count; ++i) {\n auto camera_info = QNRTC::GetCameraInfo(i);\n }\n \n \n\n## 加入房间\n\n上文提到过,SDK 所有的功能都是从 `RoomToken` 开始的,所以加入房间只需要将 `RoomToken` 作为参数传给 SDK\n就可以了。示例代码如下:\n\n \n \n client->Join(room_token, user_data);\n \n\n加入房间成功后会触发 `QNClientEventListener.OnConnectionStateChanged` 回调\n`QNConnectionState.CONNECTED` 状态。此时即可进行发布、订阅等操作。\n\n> 注:此处 `room_token` 建议开发者的应用程序从自己的 Server 端获取,关于 Server 如何生成 token\n> 可查阅[服务端开发文档](https://developer.qiniu.com/rtc/8813/roomToken)。\n\n## 发布音/视频\n\n成功加入房间后,即可在 `QNClientEventListener.OnConnectionStateChanged` 回调中调用以下代码进行本地\nTrack 的发布:\n\n \n \n void OnConnectionStateChanged(qiniu::QNConnectionState state, const qiniu::QNConnectionDisconnectedInfo& info)\n {\n if (state == CONNECTED) {\n LocalTrackList local_track_list;\n local_track_list.push_front(audio_track);\n local_track_list.push_front(video_track);\n client->Publish(local_track_list, this);\n }\n }\n \n\n发布成功后,本地会收到 `QNPublishResultCallback.OnPublished` 回调。远端用户会收到\n`QNClientEventListener.OnUserPublished` 回调。\n\n## 订阅远端音/视频\n\nSDK 收到远端发布 `QNClientEventListener.OnUserPublished` 的回调,在此回调内则可进行对 Track\n的渲染窗口设置的操作,再进行订阅,如果用户默认设置了自动订阅,这里只需设置渲染窗口,不需要主动去订阅:\n\n \n \n void OnUserPublished(const std::string &remote_user_id,\n const qiniu::RemoteTrackList &track_list)\n {\n if (client) {\n client->Subscribe(track_list);\n }\n }\n \n\n注:Linux 由于桌面平台多样性, 暂不支持视频渲染,如需要渲染,可以使用\n`QNRemoteVideoTrack.SetVideoFrameListener` 获取视频每一帧数据\n\n在成功订阅之后,用户可以根据业务场景的需求在适当的时间调用取消订阅的接口取消订阅相应的 Track:\n\n \n \n client.UnSubscribe(track_list);\n \n\n## 离开房间\n\n当音视频通话结束,调用以下代码离开房间:\n\n \n \n client->Leave();\n \n\n## 销毁\n\n用户需要调用以下代码对资源进行释放,一般此操作建议在程序生命周期的 `OnDestroy()` 中进行,示例代码如下:\n\n \n \n if (audio_track_) {\n QNRTC::DestroyLocalTrack(audio_track_);\n }\n if (video_track_) {\n QNRTC::DestroyLocalTrack(video_track_);\n }\n \n\n## 反初始化\n\n当用户不再使用 SDK,需要使用反初始化方法,释放所有资源\n\n \n \n QNRTC::DeInint();\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频SDK 概览"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > WXApp >SDK 概览\n\n# SDK 概览\n\n最近更新时间: 2022-03-04 10:22:24\n\n这是一款适用于 微信小程序 的七牛实时音视频 SDK,提供了包括音视频通话、静音、发布、订阅等多种功能,基于此 SDK,您可以在 小程序\n上开发出一款基于实时音视频的应用。 其中包括但不限于以下场景\n\n * 在线教育\n * 主播观众连麦\n * 视频会议\n * 一对一社交\n * 狼人杀等依赖实时音视频通话的游戏\n * 在线客服\n * 在线抓娃娃\n\n您可以扫以下二维码 ,体验我们最新的 Demo 效果。\n\n\n\n# 微信兼容性\n\nAndroid| iOS \n---|--- \n7.0.0| 7.0.0 \n \n# SDK 功能列表\n\n以下是 SDK 截止到最新版本所提供的功能列表\n\n功能| 版本 \n---|--- \n基本的音视频通话功能| v4.0.1 \n合流和自定义消息| v4.0.1 \n单路转推| v4.0.1 \n订阅主讲的共享画面| v4.0.1 \n控制合流发布显示模式相关问题| v4.0.1 \n支持静音功能| v4.0.1 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > WXApp >开发准备\n\n# 开发准备\n\n最近更新时间: 2022-03-21 19:10:35\n\n# 开始之前\n\n 1. 请先确认您已经对这个产品有了大概的了解,并且已经完成了[七牛实时音视频云接入流程](https://developer.qiniu.com/rtc/8802/pd-overview)。\n 2. 请先了解小程序开发,阅读 [微信小程序开发者文档](https://developers.weixin.qq.com/miniprogram/dev/index.html) 。\n 3. 请在微信小程序后台 -> 开发 -> 开发设置 -> 服务器域名配置中,将 `wss://rtmpgate.cloudvdn.com` 加到 socket 合法域名中,将 `https://pili-rtc-qos.qiniuapi.com` 添加到 request 合法域名中。\n 4. 在小程序的开发后台打开实时播放/录制音视频流的开关(小程序后台 -> 开发 -> 接口设置)。\n\n# 引入 SDK\n\n### NPM 安装\n\n \n \n npm install --save qnwxapp-rtc\n \n\n### SDK 引入\n\n> 引入之后必须点击 微信开发者工具 > 工具 > 构建 npm 方可使用。关于在小程序中使用 npm 包,详情见微信官方文档 [npm\n> 支持](https://developers.weixin.qq.com/miniprogram/dev/devtools/npm.html) 。\n \n \n import { QNRTC } from 'qnwxapp-rtc'\n \n console.log(QNRTC.VERSION)\n \n const client = QNRTC.createClient()\n \n \n\n### 引入组件\n\n接下来,在页面的 `wxml` 中引入 [live-\npusher](https://developers.weixin.qq.com/miniprogram/dev/component/live-\npusher.html) 和 [live-\nplayer](https://developers.weixin.qq.com/miniprogram/dev/component/live-\nplayer.html)。\n\n \n \n <view>\n <live-pusher mode=\"RTC\" url=\"...\"></live-pusher>\n <live-player mode=\"RTC\" src=\"...\"></live-player>\n </view>\n \n\n> **注意** : 如果您需要在微信开发者工具上跑通我们的 demo ,请先在 demo 目录下执行 `npm install` ,然后点击\n> 微信开发者工具 > 工具 > 构建 npm 即可。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > WXApp >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2022-08-08 16:49:13\n\n# 初始化房间并加入房间\n\n到这里您应该已经完成了开发准备,您已经可以拿到 RoomToken 。SDK 通过传入 RoomToken 来完成加入房间。RoomToken\n是一个包含了一次连麦所需要的主要信息的 token,这些信息包括 七牛的账户标识、连麦的应用 ID(appId)、连麦的房间号\n(roomName)、连麦的用户名(userId)、有效期等等。\n\n> 如果您还不知道如何生成 RoomToken,请先阅读\n> [七牛实时音视频云接入指南](https://developer.qiniu.com/rtc/8802/pd-overview) 。\n \n \n import { QNRTC } from 'pili-rtc-wxapp'\n // 初始化客户端\n const client = QNRTC.createClient()\n // 加入房间\n await client.join(roomToken, userData);\n \n\n# 发布流\n\n加入房间之后我们需要调用\n[publish](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#publish)\n,该方法的回调会返回推流 **rtmp** 地址,将该地址传入 **live-pusher** 组件,即可完成流的发布。\n\n \n \n <!-- index.wxml -->\n <live-pusher\n autopush\n mode=\"RTC\"\n url=\"{{publishPath}}\"\n >\n </live-pusher>\n \n \n \n import { QNPublishStatus } from \"pili-rtc-wxapp\"\n \n client.publish((status, data) => {\n /** \n * status 共有 READY 、COMPLETED、ERROR 三种状态\n * 其中 READY 表示推流就绪,返回推流的 rtmp 地址\n * COMPLETED 表示推流成功,返回推流生成的音频轨和视频轨\n * ERROR 则表示推流失败\n */\n if(status === QNPublishStatus.READY) {\n this.setData({\n publishPath: data.url\n })\n }\n })\n \n\n# 订阅流\n\n从上文发布的过程中我们可以知道,推流成功后一般会生成一个视频 `Track` 和一个音频 `Track` ,但是除了 **小程序 SDK** 外,在使用\n**七牛Web SDK** 或其余 **SDK** 时, 一个用户可以发布多个音视频 `Track` ,在实际需求中我们不一定会把他所有发布的\n`Track` 都订阅(可能只订阅音频之类的),所以订阅的目标是以 `Track` 为单位的。\n\n### 获取 `Track`\n\n那么,我怎么知道房间中有哪些 `Track` ,这些 `Track` 又分别对应哪些用户呢?这就是我们接下来讲述的重点。\n\n我们可以通过 SDK 的 `user-published` 事件获取当前房间的 `Track` 列表:\n\n> 需要在join房间之前监听对应事件,`join` 加入房间成功后,`user-published` 会返回当前所有房间内已发布 `Track`\n> 列表以及用户 `userID` 。\n\n进入房间后,当一个远端用户发布了自己的 `Track` ,此时在我们这边也会触发 `user-published` 事件,事件会带上远端用户的\n`userID` 以及所发布的 `Track` 列表。\n\n### 订阅\n\n当我们获取到 `Track` 后,可以通过调用\n[subscribe](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#subscribe)\n传入需要订阅的 `Track` ,将该方法返回推流的 **rtmp** 地址传入 **live-player** 组件,即可完成流的拉取。\n\n \n \n <!-- index.wxml -->\n <live-player\n autoplay\n wx:for=\"{{subscribeList}}\"\n src=\"{{item}}\"\n mode=\"RTC\"\n >\n </live-player>\n \n \n \n // index.js\n // 初始化客户端\n const client = QNRTC.createClient();\n client.on(\"user-published\", async (user, tracks) => {\n console.log(\"event: user-published - 用户发布\", user, tracks);\n let config = {};\n let videoTrack = tracks.find((item) => item.isVideo());\n let audioTrack = tracks.find((item) => item.isAudio());\n if (videoTrack) {\n config.videoTrack = videoTrack;\n }\n if (audioTrack) {\n config.audioTrack = audioTrack;\n }\n const url = await client.subscribe(config);\n this.setData({\n subscribeList: [...this.data.subscribeList,url],\n });\n });\n // 加入房间\n await client.join(roomToken, userData);\n \n\n> 需要注意的是:subscribe 所传入的 `Track` 必须是同一个用户所推流的。\n\n# 离开房间\n\n离开房间,断开信令,一般在 生命周期 onUnload 里调用。\n\n \n \n Page({\n onUnload() {\n client.leave()\n }\n })\n \n\n# 断网重连\n\n默认情况下,当发生网络异常等情况,SDK 会进入自动重连状态,此时房间连接状态会变为 RECONNECTING,表示重连中。之后就会两种可能:\n\n第一种,此后如果网络状态恢复正常,则 SDK 会完成自动重连,房间连接状态会变为 RECONNECTED,表示重连成功。。\n\n第二种,如果 SDK 自动重连后,仍然无法正常连接网络,则 SDK 会自动退出房间,此时房间连接状态变为\nDISCONNECTED,表示断开连接。在断开连接状态时,[回调函数](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#CONNECTION_STATE_CHANGED)中会带有第二个参数\n[QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/10943/WXAppQNConnectionDisconnectedInfo),用来表示断开的原因。此时应当根据断开原因不同,做不同的逻辑处理。具体见如下代码。\n\n \n \n client.on('connection-state-changed', (connectionState, info) => {\n console.log('connection-state-changed', connectionState);\n \n // 当进入连接断开状态\n if (connectionState === QNConnectionState.DISCONNECTED) {\n \n // 监控断开原因\n switch(info.reason) {\n \n // 当异常断开时\n case QNConnectionDisconnectedReason.ERROR:\n break;\n \n // 当被踢出房间时\n case QNConnectionDisconnectedReason.KICKED_OUT:\n break;\n \n // 当调用接口,主动离开房间时\n case QNConnectionDisconnectedReason.LEAVE:\n break;\n \n }\n })\n \n\n此时,最需要关注的是异常断开的情况。一般处理模式有两种:\n\n * 通知用户:展示 UI,通知用户网络异常,用户可选择调整网络后重试\n * 自动重连:可以在收到异常断开的通知后,主动调用重新加入房间的方法,主动再次重试\n\n# 结语\n\n到了这里我们已经了解 SDK 的基本使用方式。 更多请参考我们的 github 开源 [Demo](https://github.com/pili-\nengineering/QNRTC-WxApp)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频SDK 概览"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Uniapp >SDK 概览\n\n# SDK 概览\n\n最近更新时间: 2023-12-18 15:10:40\n\n> 具体 demo 可见 [github](https://github.com/pili-engineering/QNRTC-\n> Uniapp/tree/main/demo) 仓库,该 demo 已集成 **前端 SDK** 与 **原生 SDK** ,直接制作自定义基座,填写\n> **iOS** 或 **Android** 证书,即可运行。\n\n**QNRTC-Uniapp** 是基于 **[UNIAPP](https://uniapp.dcloud.io/)** 、 **[QNRTC-\nAndroid](https://developer.qiniu.com/rtc/8764/an-overview-of-the-android-\nsdk)** 以及 **[QNRTC-iOS](https://developer.qiniu.com/rtc/8830/an-overview-of-\nthe-ios-sdk)** 三者所实现的。前端可通过 **QNRTC-Uniapp** 所提供的 **JS 插件** 与 **Native 插件**\n调用原生 `Android` 以及 `iOS` 的 RTC 接口来实现实时音视频通话。\n\n其中包括但不限于以下场景\n\n * 在线教育\n * 主播观众连麦\n * 视频会议\n * 一对一社交\n * 狼人杀等依赖实时音视频通话的游戏\n * 在线客服\n * 在线抓娃娃\n\n# SDK 功能列表\n\n以下是 SDK 截止到最新版本所提供的功能列表\n\n功能| 版本 \n---|--- \n支持视频 SEI| v1.0.0 \n支持摄像头 Track 发送图片| v1.0.0 \n支持编码数据加密传输| v1.0.0 \n支持远端音频播放音量调节| v1.0.0 \n支持大小流传输| v1.0.0 \n支持单路转推| v1.0.0 \n支持配置 RTC 与其他音频同时播放| v1.0.0 \n支持音量大小回调| v1.0.0 \n支持自定义消息| v1.0.0 \n支持使用 TCP 传输媒体流| v1.0.0 \n支持使用蓝牙耳机通话| v1.0.0 \n支持扬声器/听筒切换| v1.0.0 \n支持音视频分别发布| v1.0.0 \n支持发布多路视频| v1.0.0 \n支持回调本地音频数据| v1.0.0 \n支持回调远端音频数据| v1.0.0 \n支持回调远端视频数据| v1.0.0 \n支持编码镜像| v1.0.0 \n支持合流参数配置| v1.0.0 \n支持后台连麦| v1.0.0 \n支持纯音频连麦| v1.0.0 \n支持硬件编码| v1.0.0 \n支持码率上下限配置| v1.0.0 \n支持多分辨率编码| v1.0.0 \n支持回调本地视频数据| v1.0.0 \n支持实时美颜滤镜| v1.0.0 \n支持水印功能| v1.0.0 \n支持踢人功能| v1.0.0 \n支持静音功能| v1.0.0 \n支持自动/手动对焦| v1.0.0 \n支持实时状态回调| v1.0.0 \n支持回调连麦房间统计信息| v1.0.0 \n支持丰富的连麦消息回调| v1.0.0 \n支持混音功能| v1.0.1 \n支持多重混音功能| v5.2.7 \n支持跨房连麦| v5.2.7 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频开发准备"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Uniapp >开发准备\n\n# 开发准备\n\n最近更新时间: 2024-04-28 10:53:23\n\n# 开始之前\n\n 1. 请先确认您已经对这个产品有了大概的了解,并且已经完成了[七牛实时音视频云接入流程](https://developer.qiniu.com/rtc/8802/pd-overview)。\n 2. 请先了解uniapp原生开发,阅读 [uniapp开发者文档](https://uniapp.dcloud.io/) 。\n\n# 引入 SDK\n\n### 插件市场安装\n\n> 需要在插件市场加载 [JS 插件](https://ext.dcloud.net.cn/plugin?id=6859) 以及 [Native\n> 插件](https://ext.dcloud.net.cn/plugin?id=6857)。JS\n> 插件主要负责处理加工原生返回的数据,便于使用者调用,Native 插件负责直接调用原生接口返回 JS 插件。\n\n### SDK 引用\n\n \n \n import { QNRTC } from \"@/js_sdk/QNRTC-UniPlugin-JS/QNRTC-UniPlugin-JS/RTCIndex.native.js\"\n QNRTC.init()\n const client = QNRTC.createClient()\n \n \n\n### 引入组件\n\n \n \n <QNRTC-UniPlugin-SurfaceView class=\"track-video\" v-for=\"(item,index) in localTracks\" :key=\"item.identifyID\" v-if=\"item.kind === 'video'\" :local=\"0\" :identifyID=\"item.identifyID\" fillMode=\"QNVideoFillModePreserveAspectRatioAndFill\" :trackID=\"item.trackID\"></QNRTC-UniPlugin-SurfaceView>\n <QNRTC-UniPlugin-SurfaceView class=\"track-video\" v-for=\"(item,index) in remoteTracks\" :key=\"item.identifyID\" v-if=\"item.kind === 'video'\" :local=\"1\" :identifyID=\"item.identifyID\" :userID=\"item.userID\" fillMode=\"QNVideoFillModePreserveAspectRatioAndFill\" :trackID=\"item.trackID\"></QNRTC-UniPlugin-SurfaceView>\n \n\n * local: 0 本地 track 视图,1 远端 track 视图\n * identifyID: uniapp 中每个 track 的唯一标识符\n * trackID: 服务器对于每个 track 的唯一标识符(track 未发布时该值为\"\")\n * userID 发布该 track 的 用户 ID(local = 1 时需要该属性)\n * fillMode 对应视图层的渲染模式(暂时只支持iOS)\n\n> **注意** : 除了**云打包** ,sdk还支持 **离线打包** ,用户可以在 **Xcode** 和 **Android Studio**\n> 进行打包编译,这里建议使用 **HBuilderX** 进行更为方便的云打包。\n\n### 离线打包\n\n \n \n git clone [email protected]:pili-engineering/QNRTC-Uniapp.git\n cd QNRTC-Uniapp\n \n\n#### 前端编译\n\n 1. `npm run build`\n 2. 将编译后的文件直接引入前端项目中使用即可\n\n#### iOS 编译\n\n> **iOS** 编译同时可以参考 **uniapp** 官方文档的\n> [编译原生插件](https://nativesupport.dcloud.net.cn/NativePlugin/course/ios) 与\n> [离线打包](https://nativesupport.dcloud.net.cn/AppDocs/README)。\n\n 1. 将 iOS 文件工程放到 uni-app 离线 SDK 对应的目录中 (**HBuilder-uniPluginDemo**)\n 2. 引入 uni-app 离线 SDK \n * 在 Xcode 中右键 **HBuilder-uniPlugin** 工程,并点击 **Add Files to \"HBuilder-uniPlugin\"** , 选中 **QNRtcUniPlugin.xcodeproj** 并添加\n * 在 Xcode 中点击 **HBuilder-uniPlugin** 工程,并点击 **HBuilder** Target,选中 **Build Phases**\n * 在 **Dependencies** 中添加 **QNRtcUniPlugin**\n * 在 **Link Binary With Libraries** 中添加 **QNRtcUniPlugin.framework**\n * 在 **Embed Frameworks** 中添加 **QNRTCKit.framework** **HappyDNS.framework** (需要通过 **Add Other...** 选择 **ios/** 目录中的 **.framework** 文件添加)\n 3. 配置插件信息\n\n搜索 **HBuilder-uniPlugin-Info.plist** ,右键 **open as source code** ,然后找到 **< key\n>dcloud_uniplugins< /key >** ,添加如下代码:\n\n \n \n <dict>\n <key>hooksClass</key>\n <string></string>\n <key>plugins</key>\n <array>\n <dict>\n <key>class</key>\n <string>QNRtcEngine</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcEngine</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcClient</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcClient</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcAudioMusicMixer</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcAudioMusicMixer</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcAudioEffectMixer</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcAudioEffectMixer</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcAudioEffect</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcAudioEffect</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcTrack</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcTrack</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcAudio</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-QNRtcAudio</string>\n <key>type</key>\n <string>module</string>\n </dict>\n <dict>\n <key>class</key>\n <string>QNRtcSurfaceView</string>\n <key>name</key>\n <string>QNRTC-UniPlugin-SurfaceView</string>\n <key>type</key>\n <string>component</string>\n </dict>\n </array>\n </dict>\n \n\n#### Android 编译\n\n> **Android** 编译同时可以参考 **uniapp** 官方文档的\n> [编译原生插件]<https://nativesupport.dcloud.net.cn/NativePlugin/course/android>) 与\n> [离线打包](https://nativesupport.dcloud.net.cn/AppDocs/README)。\n\n 1. 将 Android 文件夹中 **uniplugin_qndroid_rtc** 工程以 module 的形式导入到 uni-app 离线 SDK 对应的目录中 (UniPlugin-Hello-AS),导入方式可参考[官方文档](https://developer.android.com/studio/projects/add-app-module?hl=zh-cn#ImportAModule)。\n 2. 将 Android 文件夹中 **QNRtcUniPlugin/android/libs** 目录下的 jar 文件放到 uni-app 离线 SDK 对应的 **app/libs/** 目录中,不同架构的 so 文件放到 **app/src/main/jniLibs/** 目录中,如无 jniLibs 目录,需手动创建。集成后的目录结构如下:\n\n\n\n 3. 在 settings.gradle 中添加\n\n \n \n include ':uniplugin_qndroid_rtc'\n \n\n 4. 在 app/build.gradle 中添加\n\n \n \n implementation 'com.qiniu:happy-dns:0.2.18'\n implementation \"com.google.code.gson:gson:2.8.8\"\n implementation project(':uniplugin_qndroid_rtc')\n \n\n 5. 配置插件信息\n\n \n \n {\n \"nativePlugins\": [\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcEngine\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcClient\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCClientModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcTrack\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCTrackModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcAudioMixer\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCAudioMixerModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcAudioMusicMixer\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCAudioMusicMixerModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcAudioEffectMixer\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCAudioEffectMixerModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"module\",\n \"name\": \"QNRTC-UniPlugin-QNRtcAudioEffect\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.module.QNRTCAudioEffectModule\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"component\",\n \"name\": \"QNRTC-UniPlugin-SurfaceView\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.component.QNRTCSurfaceView\"\n }\n ]\n },\n {\n \"plugins\": [\n {\n \"type\": \"component\",\n \"name\": \"QNRTC-UniPlugin-TextureView\",\n \"class\": \"uni.qiniu.droid.uniplugin_rtc.uni.component.QNRTCTextureView\"\n }\n ]\n }\n ]\n }\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频实现视频通话"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 快速入门 > Uniapp >实现视频通话\n\n# 实现视频通话\n\n最近更新时间: 2023-12-18 15:11:10\n\n# 初始化房间并加入房间\n\n到这里您应该已经完成了开发准备,您已经可以拿到 RoomToken 。SDK 通过传入 RoomToken 来完成加入房间。RoomToken\n是一个包含了一次连麦所需要的主要信息的 token,这些信息包括 七牛的账户标识、连麦的应用 ID(appId)、连麦的房间号\n(roomName)、连麦的用户名(userId)、有效期等等。\n\n> 如果您还不知道如何生成 RoomToken,请先阅读\n> [七牛实时音视频云接入指南](https://developer.qiniu.com/rtc/8802/pd-overview) 。\n \n \n import { QNRTC } from \"@/js_sdk/QNRTC-UniPlugin-JS/QNRTC-UniPlugin-JS/RTCIndex.native.js\"\n // 必须在使用其它接口前调用\n QNRTC.init()\n // 初始化客户端\n const client = QNRTC.createClient()\n // 加入房间\n await client.join(roomToken, userData);\n \n\n# 添加原生 component 组件\n\n添加音视频通话需要的原生组件\n\n \n \n <QNRTC-UniPlugin-SurfaceView class=\"track-video\" v-for=\"(item,index) in localTracks\" :key=\"item.identifyID\" v-if=\"item.kind === 'video'\" :local=\"0\" :identifyID=\"item.identifyID\" fillMode=\"QNVideoFillModePreserveAspectRatioAndFill\" :trackID=\"item.trackID\"></QNRTC-UniPlugin-SurfaceView>\n <QNRTC-UniPlugin-SurfaceView class=\"track-video\" v-for=\"(item,index) in remoteTracks\" :key=\"item.identifyID\" v-if=\"item.kind === 'video'\" :local=\"1\" :identifyID=\"item.identifyID\" :userID=\"item.userID\" fillMode=\"QNVideoFillModePreserveAspectRatioAndFill\" :trackID=\"item.trackID\"></QNRTC-UniPlugin-SurfaceView>\n \n\n * local: 0 本地 track 视图,1 远端 track 视图\n * identifyID: uniapp 中每个 track 的唯一标识符\n * trackID: 服务器对于每个 track 的唯一标识符(track 未发布时该值为\"\")\n * userID 发布该 track 的 用户 ID(local = 1 时需要该属性)\n * fillMode 对应视图层的渲染模式(暂时只支持iOS)\n\n# 采集音视频轨\n\n这里我们将要采集 2 个音视频轨,分别是 **摄像头视频轨** 和 **麦克风音频轨** 。\n\n \n \n const cameraVideoTrack = QNRTC.createCameraVideoTrack()\n const microphoneAudioTrack = QNRTC.createMicrophoneAudioTrack()\n \n\n# 发布本地音视频轨\n\n成功加入房间后,可在\n[**onConnectionStateChanged**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onConnectionStateChanged)\n事件中 **state** 为 **QNConnectionState.CONNECTED** 后发布本地 Track 。\n\n \n \n this.client.on(\"onConnectionStateChanged\", ({\n state\n }) => {\n if (state === QNConnectionState.CONNECTED) {\n this.client.publish(this.localTracks, ({\n onPublished,\n data,\n info\n }) => {\n if (onPublished) {\n // ...\n } else {\n // ...\n }\n })\n }\n })\n \n\n发布成功后,本地通过回调获得发布成功的结果。而远端用户则会通过\n[**onUserPublished**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onUserPublished)\n收到发布成功的回调。\n\n# 订阅远端音视频 Track\n\nSDK 默认会进行自动订阅,订阅成功后根据媒体类型收到\n[**onAudioSubscribed**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onAudioSubscribed)\n或者\n[**onVideoSubscribed**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onVideoSubscribed)\n的回调,然后通过原生组件传入对应参数,实现远端窗口显示。\n\n \n \n this.client.on(\"onAudioSubscribed\", (params) => {\n for (let i of params.trackList) {\n this.remoteTracks.push(i)\n }\n })\n this.client.on(\"onVideoSubscribed\", (params) => {\n for (let i of params.trackList) {\n this.remoteTracks.push(i)\n }\n })\n \n\n# 订阅流\n\n从上文发布的过程中我们可以知道,推流成功后一般会生成一个 **Track** ,一个用户可以发布多个音视频 **Track**\n,在实际需求中我们不一定会把他所有发布的 **Track** 都订阅(可能只订阅音频之类的),所以订阅的目标是以 **Track** 为单位的。\n\n我们可以通过 SDK 的\n[**onUserPublished**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onUserPublished)\n事件获取当前房间发布的 **Track** 。\n\n \n \n this.client.on(\"onUserPublished\", (params) => {\n console.log(params.trackList)\n })\n \n\n> 需要在join房间之前监听对应事件,**join**\n> 加入房间成功后,[**onUserPublished**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onUserPublished)\n> 会返回当前所有房间内已发布 **Track** 列表以及用户 **userID** 。\n\n进入房间后,当一个远端用户发布了自己的 **Track** ,此时在我们这边也会触发\n[**onUserPublished**](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onUserPublished)\n事件,事件会带上远端用户的 **userID** 以及所发布的 **Track** 列表。\n\n# 离开房间\n\n在进入音视频通话房间之后,用户可以根据业务场景的需求在适当的时间调用离开房间的接口退出连麦。例如客户端踢人:\n\n \n \n client.on(\"onMessageReceived\", (params) => {\n if(params.content === \"kickOut\") {\n client.leave()\n }\n })\n \n\n#### 销毁\n\n在整个页面销毁时,用户需要调用以下代码对资源进行释放,一般此操作建议在页面生命周期 **onUnload** 和 **onBackPress**\n中进行,示例代码如下:\n\n \n \n onUnload() {\n this.client.leave()\n QNRTC.deinit()\n }\n onBackPress() {\n this.client.leave()\n QNRTC.deinit()\n }\n \n\n# 结语\n\n到了这里我们已经了解 SDK 的基本使用方式。 \n更多请参考我们的 github 开源 [Demo __](https://github.com/pili-engineering/QNRTC-Uniapp)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >初始化\n\n# 初始化\n\n最近更新时间: 2023-08-17 15:50:46\n\n本文主要介绍实时音视频的初始化方式及其配置项。\n\n> 在使用 SDK 前,请务必调用\n> [QNRTC.init](https://developer.qiniu.com/rtc/api/8732/QNRTC#init%5B1/2%5D)\n> 方法进行 RTC 环境的初始化工作\n\n# 默认配置初始化\n\nQNRTC SDK 提供 [QNRTC.init(Context,\nQNRTCEventListener)](https://developer.qiniu.com/rtc/api/8732/QNRTC#init%5B1/2%5D)\n方法以默认配置进行 RTC 环境的初始化工作,示例代码如下:\n\n \n \n @Override\n protected void onCreate(Bundle savedInstanceState) {\n super.onCreate(savedInstanceState);\n // 以默认配置进行 RTC 环境的初始化,使用 SDK 前请务必先执行初始化操作。\n QNRTC.init(this, new QNRTCEventListener());\n }\n \n\n若 [QNRTCSetting](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting)\n的默认配置无法满足您的场景需要,您还可通过调用 [QNRTC.init(Context, QNRTCSetting,\nQNRTCEventListener)](https://developer.qiniu.com/rtc/api/8732/QNRTC#init%5B2/2%5D)\n方法进行自定义 [QNRTCSetting](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting)\n配置的初始化,[QNRTCSetting](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting)\n支持的配置及说明具体如下:\n\n# 设置视频的编码方式\n\n通过调用\n[QNRTCSetting.setHWCodecEnabled](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setHWCodecEnabled)\n接口配置编码方式,默认开启硬编\n\n \n \n public QNRTCSetting setHWCodecEnabled(boolean enabled)\n \n\n# 设置是否固定分辨率\n\n通过调用\n[QNRTCSetting.setMaintainResolution](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setMaintainResolution)\n设置是否固定分辨率,默认开启分辨率自适应\n\n \n \n public QNRTCSetting setMaintainResolution(boolean maintainResolution)\n \n\n> * **该设置选项从`v5.2.3` 开始废弃,将在后续版本移除**,新的配置入口可在[创建视频\n> Track](https://developer.qiniu.com/rtc/development_guidelines/8767/audio-\n> and-video-collection-android) 时通过\n> [QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig#QNVideoEncoderConfig%5B2/4%5D)\n> 来指定。保持分辨率可将\n> [QNDegradationPreference](https://developer.qiniu.com/rtc/api/12393/QNDegradationPreference)\n> 设置为\n> [QNDegradationPreference.MAINTAIN_RESOLUTION](https://developer.qiniu.com/rtc/api/12393/QNDegradationPreference#MAINTAIN_RESOLUTION)\n> * 对于已废弃接口,maintainResolution 为 true 对应\n> [QNDegradationPreference.MAINTAIN_RESOLUTION](https://developer.qiniu.com/rtc/api/12393/QNDegradationPreference#MAINTAIN_RESOLUTION),为\n> false 对应\n> [QNDegradationPreference.DEFAULT](https://developer.qiniu.com/rtc/api/12393/QNDegradationPreference#DEFAULT),可根据需要进行迁移\n>\n\n> 1. 该选项可以控制编码分辨率不会由于带宽控制策略而变化\n> 2. **单路转推 CDN 的场景下,请务必开启固定分辨率的选项,否则可能会出现不可预知的问题**\n>\n\n# 日志相关配置\n\n从 v5.2.3 开始,SDK 默认会进行日志的本地存储,同时支持日志的上报。\n\n## 基本配置\n\n可通过调用\n[QNRTC.setLogConfig](https://developer.qiniu.com/rtc/api/8732/QNRTC#setLogConfig)\n进行`日志等级`、`日志存储路径`以及`日志存储文件大小`的相关配置,示例代码如下:\n\n \n \n @Override\n protected void onCreate(Bundle savedInstanceState) {\n super.onCreate(savedInstanceState);\n QNRTC.init(this, new QNRTCEventListener()); // 初始化 RTC 环境\n QNLogConfig logConfig = new QNLogCofnig(this, QNLogLevel.INFO); // 创建 QNLogConfig\n QNRTC.setLogConfig(logConfig); // 设置 QNLogConfig\n }\n \n\n其中,`QNLogConfig`\n为主要的日志配置类,使用注意事项可参考[接口文档](https://developer.qiniu.com/rtc/api/12415/QNLogConfig)。\n\n>\n> [QNRTCSetting.setLogLevel](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setLogLevel)\n> 和\n> [QNRTC.setLogFileEnabled](https://developer.qiniu.com/rtc/api/8732/QNRTC#setLogFileEnabled)\n> 接口在 `v5.2.3` 之后已被废弃,请使用上述最新接口替代。\n\n## 日志上报\n\n可通过调用\n[QNRTC.uploadLog[1/2]](https://developer.qiniu.com/rtc/api/8732/QNRTC#uploadLog%5B1/2%5D)\n和\n[QNRTC.uploadLog[2/2]](https://developer.qiniu.com/rtc/api/8732/QNRTC#uploadLog%5B2/2%5D)\n接口进行日志文件的上报:\n\n \n \n public static void uploadLog(QNUploadLogResultCallback callback); // 上传日志到七牛服务器\n public static void uploadLog(String token, QNUploadLogResultCallback callback); // 上传日志到指定七牛云存储空间\n \n\n> 1. 调用上传接口前需要确保已经通过\n> [QNRTC.init](https://developer.qiniu.com/rtc/api/8732/QNRTC#init%5B1/2%5D)\n> 完成了 SDK 的初始化\n> 2. 若业务需要上传日志到自定义的七牛云存储空间,则需要您的业务服务器自行签算上传\n> token,签算规则可参考[上传策略](https://developer.qiniu.com/kodo/1208/upload-token%22)文档\n> 3. 日志上传结果及其相关错误码说明可参考\n> [QNUploadLogResultCallback](https://developer.qiniu.com/rtc/api/12414/QNUploadLogResultCallback)\n> 接口文档\n>\n\n# 设置是否将扬声器作为默认音频输出设备\n\n通过调用\n[QNRTCSetting.setDefaultAudioRouteToSpeakerphone](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setDefaultAudioRouteToSpeakerphone)\n设置是否将扬声器作为默认音频输出设备,默认音频路由为扬声器。\n\n \n \n public QNRTCSetting setDefaultAudioRouteToSpeakerphone(boolean defaultAudioRouteToSpeakerphone)\n \n\n# 设置媒体传输方式\n\n通过调用\n[QNRTCSetting.setTransportPolicy](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setTransportPolicy)\n设置媒体传输方式。默认使用 UDP 传输。\n\n \n \n public QNRTCSetting setTransportPolicy(TransportPolicy transportPolicy)\n \n\n其中,媒体传输方式有如下几种,可根据实际情况自行选择:\n\n \n \n public enum TransportPolicy {\n /**\n * 强制使用 UDP 做媒体传输(默认值)\n */\n FORCE_UDP,\n /**\n * 强制使用 TCP 做媒体传输\n */\n FORCE_TCP,\n /**\n * 优先使用 UDP 做媒体传输,允许自动切换 TCP\n */\n PREFER_UDP\n }\n \n\n# 设置音频场景\n\n通过调用\n[QNRTC.setAudioScene](https://developer.qiniu.com/rtc/api/8732/QNRTC#setAudioScene)\n设置音频场景,详细可阅读\n[音频场景实践](https://developer.qiniu.com/rtc/12267/audio_scene_android)。\n\n# 设置编码质量优先模式\n\n通过调用\n[QNRTCSetting.setEncoderQualityMode](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setEncoderQualityMode)\n设置开启编码质量优先模式,默认为关闭状态,使用码率优先模式。\n\n \n \n public QNRTCSetting setEncoderQualityMode(boolean encoderQualityMode)\n \n\n> 质量优先模式会优先保证视频的编码质量,实际码率可能会和目标码率存在差异。关闭该模式后会尽量控制编码码率为目标码率。\n\n# 设置重连时长\n\nSDK 默认会有 30s 的重连时间,通过调用\n[QNRTCSetting.setReconnectionTimeout](https://developer.qiniu.com/rtc/api/8686/QNRTCSetting#setReconnectionTimeout)\n可以修改重连时长的配置。\n\n \n \n public QNRTCSetting setReconnectionTimeout(int reconnectionTimeout)\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2023-04-25 10:33:44\n\n音视频 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 为音视频交互的基本单位,本文主要介绍音视频 Track 的创建及采集等功能的使用。\n\n> * 一路 Track 代表一路音频或者视频的数据\n> * SDK 支持创建并发布多路音视频 Track。(v5.2.3 之前不支持多音频 Track,重复创建将会失败)\n>\n\n# 摄像头视频 Track\n\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack)\n为摄像头采集的本地 track,其创建方式如下:\n\n \n \n QNCameraVideoTrackConfig cameraVideoTrackConfig = new QNCameraVideoTrackConfig(TAG_CAMERA)\n .setCameraFacing(QNCameraFacing.FRONT)\n .setVideoCaptureConfig(QNVideoCaptureConfigPreset.CAPTURE_640x480) // 配置预览格式\n .setVideoEncoderConfig(new QNVideoEncoderConfig(640, 480, 30, 800)); // 配置编码参数\n mCameraVideoTrack = QNRTC.createCameraVideoTrack(cameraVideoTrackConfig);\n \n\n其中:\n\n 1. [QNVideoCaptureConfig](https://developer.qiniu.com/rtc/api/8700/QNVideoCaptureConfig) 用来配置摄像头采集参数,包括分辨率和帧率等;设置时可以使用 SDK 提供的预设值,详情可参考 [QNVideoCaptureConfigPreset](https://developer.qiniu.com/rtc/api/8731/video-capture-config-preset-android)。\n 2. [QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig) 用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等。\n 3. [QNVideoCaptureConfig](https://developer.qiniu.com/rtc/api/8700/QNVideoCaptureConfig) 和 [QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig) 的配置可以缺省,SDK 内部默认提供的采集编码参数为 640x480、20fps、800kbps\n\n在创建好\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack)\n之后,就可以通过调用 SDK 提供的相关方法进行摄像头的相关操作:\n\n## 设置事件监听\n\n通过调用 `QNCameraVideoTrack.setCameraEventListener` 接口进行摄像头事件的回调监听。\n\n \n \n public void setCameraEventListener(QNCameraEventListener listener);\n \n\n`QNCameraEventListener` 回调定义如下:\n\n \n \n interface QNCameraEventListener {\n int[] onCameraOpened(List<Size> sizes, List<Integer> fpsAscending); // 根据返回的设备能力选择采集参数\n void onCaptureStarted(); // 开始采集时触发\n void onCaptureStopped(); // 停止采集时触发\n void onError(int errorCode, String description); // 摄像头发生错误时触发\n }\n \n\n该回调监听可用来选择期望的采集能力、监听摄像头的相关异常等,详情可参考\n[QNCameraEventListener](https://developer.qiniu.com/rtc/api/8637/QNCameraEventListener)\n接口文档\n\n## 开始/停止摄像头采集\n\n通过调用 `QNCameraVideoTrack.startCapture` 接口进行摄像头采集,通过调用\n`QNCameraVideoTrack.stopCapture` 接口停止摄像头采集,通过调用 `QNCameraVideoTrack.play`\n设置摄像头采集的预览窗口。\n\n \n \n public void startCapture();\n public void stopCapture();\n public void play(QNRenderView view);\n \n\n> * 由于 Android 中的相机资源是单例的,若应用占用了相机资源则会导致其他应用无法获取到相机资源。SDK 支持在通话过程中可以通过\n> `QNCameraVideoTrack.startCapture` 获取相机资源,通过 `QNCameraVideoTrack.stopCapture`\n> 释放相机资源。\n> * 若摄像头采集开启失败,会通过\n> [QNCameraEventListener.onError](https://developer.qiniu.com/rtc/api/8637/QNCameraEventListener#onError)\n> 监听回调错误信息,错误码请参考[设备采集相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\n> error-code-android#2)。\n>\n\n基于 [Android\n行为变更](https://developer.android.com/about/versions/pie/android-9.0-changes-\nall#bg-sensor-access)的声明,Android 9 之后的设备将无法后台进行音视频的采集。\n\n * 若您有后台连麦的需求,可参考 [Android 官网相关说明](https://developer.android.com/guide/topics/media/camera)在退后台后使用[前台服务](https://developer.android.com/guide/components/services?hl=zh-cn#Foreground)让应用正常工作。\n * 若您不需要后台连麦,可以在 Activity `onResume`、`onPause` 等生命周期函数中分别调用 [QNCameraVideoTrack.startCapture](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack#startCapture) 和 [QNCameraVideoTrack.stopCapture](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack#stopCapture) 方法进行 Camera 采集的开启和关闭操作。\n\n## 开启/关闭预览\n\n通过调用 `QNCameraVideoTrack.setPreviewEnabled` 接口进行预览画面的开关控制:\n\n \n \n public void setPreviewEnabled(boolean isEnabled)\n \n\n## 开启/关闭闪光灯\n\n通过调用 `QNCameraVideoTrack.turnLightOn` 接口开启闪光灯,通过调用\n`QNCameraVideoTrack.turnLightOff` 接口关闭闪光灯:\n\n \n \n public boolean turnLightOn()\n public boolean turnLightOff()\n \n\n## 切换摄像头\n\n通过调用 `QNCameraVideoTrack.switchCamera` 接口进行摄像头的切换。\n\n \n \n public void switchCamera(QNCameraSwitchResultCallback callback)\n \n\n其中,切换成功与否会通过\n[QNCameraSwitchResultCallback](https://developer.qiniu.com/rtc/api/8639/QNCameraSwitchResultCallback)\n回调出来,若不需要结果回调,可以传入 null。\n\n> 相机在启动或使用过程中可能会遇到一些问题,在此情况下 SDK 会在 `QNCameraEventListener.onError`\n> 中回调到上层,详情可参考\n> [QNCameraEventListener](https://developer.qiniu.com/rtc/api/8637/QNCameraEventListener)。\n\n## 设置缩放\n\n通过调用 `QNCameraVideoTrack.setZoom(float zoom)` 接口对相机采集的画面进行缩放。需要注意的是 setZoom\n里的参数必须是通过调用 `QNCameraVideoTrack.getZooms()` 接口获取到的列表里的数值,如果\n`QNCameraVideoTrack.getZooms()` 接口获取到的列表为空,即代表不支持缩放设置:\n\n \n \n public void setZoom(float zoom);\n public List<Float> getZooms();\n \n\n## 开启/关闭镜像\n\nSDK 内提供了预览镜像和采集镜像两种镜像接口。通过调用 `QNCameraVideoTrack.setPreviewMirror(boolean\nmirror)` 接口即可开启或关闭预览镜像,开启了预览镜像仅仅在本地预览才会镜像,远端看还是正常的画面;通过调用\n`QNCameraVideoTrack.setMirror(boolean mirror)`\n接口即可开启或关闭采集镜像,若开启了采集镜像本地预览和远端都将会显示镜像画面:\n\n \n \n public void setMirror(boolean mirror);\n public void setPreviewMirror(boolean mirror);\n \n\n## 美颜\n\n通过调用 `QNCameraVideoTrack.setBeauty` 接口进行内置美颜的参数配置。其中,美颜的开关可以通过 QNBeautySetting\n来设置,具体的美颜配置可以参考\n[QNBeautySetting](https://developer.qiniu.com/rtc/api/8636/QNBeautySetting)。\n\n \n \n public void setBeauty(QNBeautySetting beautySetting)\n \n\n如需接入外部美颜或滤镜,可以通过 `QNCameraVideoTrack.setVideoFrameListener` 接口设置\n[QNVideoFrameListener](https://developer.qiniu.com/rtc/api/8704/QNVideoFrameListener)\n回调来对接外部第三方美颜或者滤镜。\n\n> 需要注意的是,由于 Android 摄像头设备角度的原因,在竖屏情况下 SDK\n> 内部会对图像进行旋转,在竖屏情况的宽高设置跟实际图像会有所差别。比如:在横屏情况下发布 `1280 * 720` 的视频图像,那么设置为 `new\n> QNVideoEncoderConfig(1280, 720, DEFAULT_FPS,\n> DEFAULT_BITRATE)`即可;但如果想要在竖屏情况下发布 `720 * 1280` 的视频图像,那么由于上述原因应设置为 `new\n> QNVideoEncoderConfig(1280, 720, DEFAULT_FPS, DEFAULT_BITRATE)`。另外,在 [CDN\n> 转推](https://developer.qiniu.com/rtc/development_guidelines/8770/turn-the-\n> cdn-push-android)合流配置中的宽高与此处的配置不同,合流配置的宽高需要以实际宽高为准。\n\n######\n\n# 屏幕录制视频 Track\n\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/8687/QNScreenVideoTrack)\n为屏幕录制的本地 Track,录屏连麦的主要步骤如下:\n\n## 判断设备是否支持屏幕录制\n\n屏幕录制依赖 Android 系统版本,可通过 SDK 提供的如下接口判断是否支持:\n\n \n \n static boolean isScreenCaptureSupported();\n \n\n示例代码如下:\n\n \n \n boolean isSupported = QNScreenVideoTrack.isScreenCaptureSupported();\n \n\n## 发起屏幕录制请求\n\nSDK 提供如下方法进行屏幕请求的发起:\n\n \n \n static boolean requestPermission(Activity activity);\n \n\n示例代码如下:\n\n \n \n QNScreenVideoTrack.requestPermission(activity);\n \n\n当用户同意录屏请求后,会通过系统的 `onActivityResult` 进行通知,在收到录屏请求的返回后,可通过 SDK 提供的\n`checkActivityResult` 方法进行处理,如果接口返回 true,便可以创建 Screen Track 进行屏幕录制了。\n\n示例代码如下:\n\n \n \n @Override\n protected void onActivityResult(int requestCode, int resultCode, @Nullable Intent data) {\n super.onActivityResult(requestCode, resultCode, data);\n if (requestCode == QNScreenVideoTrack.SCREEN_CAPTURE_PERMISSION_REQUEST_CODE &&\n QNScreenVideoTrack.checkActivityResult(requestCode, resultCode, data)) {\n // 创建 Screen Track\n createScreenTrack();\n }\n }\n \n\n## 创建 Screen Track\n\n在通过了屏幕录制申请后,可以通过如下方式进行 Screen Track 的创建:\n\n \n \n QNScreenVideoTrackConfig screenVideoTrackConfig = new QNScreenVideoTrackConfig(Config.TAG_SCREEN_TRACK)\n .setVideoEncoderConfig(createEncoderConfig());\n mScreenVideoTrack = QNRTC.createScreenVideoTrack(screenVideoTrackConfig);\n \n\n其中,[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig)\n用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等;\n录屏时建议分辨率和屏幕分辨率比例保存一致,避免录屏画面有黑边或者不清晰,具体可[参考](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/ScreenCaptureActivity.java)。\n\n# 外部导入视频 Track\n\nSDK 外部导入视频连麦支持导入 **NV21 数据** 和 **纹理数据** 两种格式的数据,使用方式如下:\n\n## 创建外部导入视频 Track\n\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8649/QNCustomVideoTrack)\n为外部数据导入视频 track,创建方式如下:\n\n \n \n QNCustomVideoTrackConfig customVideoTrackConfig = new QNCustomVideoTrackConfig(TAG_FOR_EXTERNAL_IMPORT_VIDEO)\n .setVideoEncoderConfig(new QNVideoEncoderConfig(640, 480, 30, 800));\n mCustomVideoTrack = QNRTC.createCustomVideoTrack(customVideoTrackConfig);\n \n\n## 数据导入\n\n### 导入 NV21 数据\n\nSDK 支持导入 NV21 的数据,在创建好\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8649/QNCustomVideoTrack)\n之后,可通过如下方式推送数据:\n\n \n \n QNVideoFrame videoFrame = new QNVideoFrame();\n videoFrame.buffer = data; // NV21 数据\n videoFrame.width = width; // 视频帧的宽度\n videoFrame.height = height; // 视频帧的高度\n videoFrame.rotation = 0; // 视频帧的角度\n videoFrame.timestampNs = ts; // 视频帧的时间戳,以 ns 为单位\n mCustomVideoTrack.pushVideoFrame(videoFrame);\n \n\n> 为兼容所有机型,导入 NV21 数据时,建议选择软编码的方式进行导入。\n\n### 导入纹理数据\n\nSDK 支持导入纹理数据,在创建好\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8649/QNCustomVideoTrack)\n之后,可通过如下方式推送数据:\n\n \n \n QNVideoFrame videoFrame = new QNVideoFrame();\n videoFrame.texture = QNTexture.create(\n mTextureType == QNTexture.TextureType.OES ? mOESTexID : mCanvas.getCanvasTexID(),\n mTextureType,\n mMatrix,\n mCanvasThread.getHandler());\n videoFrame.width = mWidth;\n videoFrame.height = mHeight;\n videoFrame.rotation = 0;\n videoFrame.timestampNs = ts;\n mCustomVideoTrack.pushVideoFrame(videoFrame);\n \n\n其中:\n\n 1. [TextureType](https://developer.qiniu.com/rtc/api/8691/QNTexture#TextureType) 为纹理类型,需要根据实际类型指定为 `OES` 或者 `RGB`。\n 2. Matrix 为 4x4 的纹理变换矩阵。根据纹理类型的不同,处理方式也有所区别: \n * 如果推送的纹理为 OES 纹理,则需要传入对应的纹理变换矩阵。\n * 如果推送的纹理为 RGB 纹理,则通常只需传入单位矩阵即可。\n 3. 纹理导入需要 OpenGL 上下文,因此,Handler 需要指定为纹理所在线程的 Handler。\n\n# 麦克风音频 Track\n\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack)\n为麦克风采集的音频 Track,如需以麦克风采集数据作为音频源,仅需创建一个\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack)\n并发布即可,其创建方式如下:\n\n \n \n QNMicrophoneAudioTrackConfig microphoneAudioTrackConfig = new QNMicrophoneAudioTrackConfig(TAG_AUDIO)\n .setAudioQuality(QNAudioQualityPreset.STANDARD);\n mMicrophoneAudioTrack = QNRTC.createMicrophoneAudioTrack(microphoneAudioTrackConfig);\n \n\n其中,[QNAudioQuality](https://developer.qiniu.com/rtc/api/8634/QNAudioQuality)\n代表音频的质量参数,包括采样率、声道数、位宽以及编码码率,SDK 有提供对应的预设以方便选择,可参考\n[QNAudioQualityPreset](https://developer.qiniu.com/rtc/api/8635/QNAudioQualityPreset)。\n\n> **注意:**\n>\n> 1. 从 v5.2.3 开始,SDK 支持同时创建并发布多路音频 Track;v5.2.3 之前仅支持一路音频\n> Track,[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack)\n> 和\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8646/QNCustomAudioTrack)\n> 实例不能同时创建。\n> 2. 在音视频通话的场景下,为了获得更好的通话体验,建议使用单声道的音频配置。\n>\n\n# 外部导入音频 Track\n\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8646/QNCustomAudioTrack)\n为外部导入音频 track,如需导入音频数据作为音频源,仅需创建一个\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8646/QNCustomAudioTrack)\n即可,然后通过调用 `QNCustomAudioTrack.pushAudioFrame(QNAudioFrame frame)` 进行外部音频数据的导入。\n\n支持的音频数据格式为:PCM 格式,16 bit 位宽。\n\n使用方式可参考如下示例:\n\n \n \n QNAudioFrame audioFrame = new QNAudioFrame(buffer, size, dataWidth, sampleRate, channels);\n mCustomAudioTrack.pushAudioFrame(audioFrame);\n \n\n> 从 v5.2.3 开始,SDK 支持同时创建并发布多路音频 Track;v5.2.3 之前仅支持一路音频\n> Track,[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack)\n> 和\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8646/QNCustomAudioTrack)\n> 实例不能同时创建。\n\n# 示例代码\n\n音视频采集场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/tree/master/QNRTC-API-Examples)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >房间管理\n\n# 房间管理\n\n最近更新时间: 2021-11-26 15:19:24\n\n**房间**\n是对音视频对话空间的抽象,用于隔离不同的通话过程,保障数据的安全及独立。同一房间内的用户可以互相接收对方的音视频数据。本部分介绍如何进行房间管理,获取房间信息、用户信息以及如何实现踢人等常见功能。\n\n> *\n> 加入、离开房间代表一次音视频通话的开始和结束,一次会话仅需调用一次加入、离开的操作即可,无需重复调用。加入房间后对于音视频数据的发送和接收,可参考[发布和订阅](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-\n> and-subscribe-android)相关流程。\n> * 加入房间需要携带相应的\n> [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\n> concept#room_token),[RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-\n> rtc-basic-concept#room_token) 需通过您的服务端生成,签算方式可参考 [RoomToken\n> 签发服务](https://developer.qiniu.com/rtc/development_guidelines/8813/roomToken)。\n>\n\n# 房间的生命周期\n\n * 当用户加入的房间不存在时,七牛后台服务会自动创建对应的房间。\n * 若房间内的所有用户都已离开,那么房间维持空状态 10s 后将会自动关闭。\n * 若房间为服务端创建,且创建后无用户进入,那么房间维持空状态 30s 后将会自动关闭。\n * 若房间内的用户由于断网等原因,30s 未向七牛后台服务通信,则该用户将被视为退出房间。\n\n# 加入房间\n\n本地调用 [QNRTCClient.join(String\ntoken)](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#join%5B1/2%5D) 通过\nroomToken 加入房间。\n\n \n \n public void join(String token);\n public void join(String token, String userData);\n \n\n示例代码如下:\n\n \n \n mClient.join(token);\n \n\n> 1. 请确保在 `QNConnectionState.DISCONNECTED` 状态下调用该接口加入房间,否则接口调用无效\n> 2. 加入房间时根据业务需求,每个用户可通过 `userData` 携带自定义数据\n>\n\n关于 roomToken 的签算规则,可查阅 [RoomToken\n的签算](https://doc.qnsdk.com/rtn/docs/server_overview#1)文档。\n\n本地加入房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n调用 [QNRTCClient.join(String\ntoken)](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#join%5B1/2%5D)\n接口后,会触发\n[QNClientEventListener.onConnectionStateChanged](https://developer.qiniu.com/rtc/api/8643/QNClientEventListener#onConnectionStateChanged)\n监听回调房间状态改变的通知\n\n \n \n public interface QNClientEventListener {\n // 当房间状态改变时会触发此回调\n void onConnectionStateChanged(QNConnectionState state, @Nullable QNConnectionDisconnectedInfo info);\n }\n \n\n * 若加入房间成功,会回调 [QNConnectionState.CONNECTED](https://developer.qiniu.com/rtc/api/8645/QNConnectionState#CONNECTED) 状态。\n * 若加入房间失败,会回调 [QNConnectionState.DISCONNECTED](https://developer.qiniu.com/rtc/api/8645/QNConnectionState#DISCONNECTED) 状态,同时可以通过 [QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/api/8644/QNConnectionDisconnectedInfo) 获取[失败的原因](https://developer.qiniu.com/rtc/api/8644/QNConnectionDisconnectedInfo#Reason)以及对应的[错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-error-code-android#1)\n\n**远端用户收到的回调:**\n\n \n \n public interface QNClientEventListener {\n // 当远端用户加入房间时会触发此回调\n void onUserJoined(String remoteUserId, String userData);\n }\n \n\n* * *\n\n# 离开房间\n\n本地调用\n[QNRTCClient.leave()](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#leave)\n退出房间。本地退出房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n \n \n public interface QNClientEventListener {\n // 当房间状态改变时会触发此回调,成功离开房间后,回调状态为 QNConnectionState.DISCONNECTED,QNConnectionDisconnectedInfo 回调 Reason 为 LEAVE\n void onConnectionStateChanged(QNConnectionState state, @Nullable QNConnectionDisconnectedInfo info);\n }\n \n\n**远端用户收到的回调:**\n\n \n \n public interface QNClientEventListener {\n // 当远端用户离开房间时会触发此回调\n void onUserLeft(String remoteUserID);\n }\n \n\n* * *\n\n# 房间信息\n\n## 获取房间内远端用户信息\n\n本地可调用 [QNRTCClient.getRemoteUser(String\nuserID)](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getRemoteUser)\n接口获取音视频通话房间中的指定用户。\n\n \n \n public QNRemoteUser getRemoteUser(String userID);\n \n\n本地可调用\n[QNRTCClient.getRemoteUsers()](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getRemoteUsers)\n接口获取音视频通话房间中的远端用户列表。\n\n \n \n public List<QNRemoteUser> getRemoteUsers();\n \n\n其中,[QNRemoteUser](https://developer.qiniu.com/rtc/api/8677/QNRemoteUser)\n代表远端用户的信息,通过该对象可以获取指定 user 发布的音视频列表以及本地对其的订阅情况。\n\n## 获取房间状态信息\n\n本地可以调用\n[QNRTCClient.getConnectionState()](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getConnectionState)\n接口获取音视频通话的房间状态信息。\n\n \n \n public QNConnectionState getConnectionState();\n \n\n其中,[QNConnectionState](https://developer.qiniu.com/rtc/api/8645/QNConnectionState)\n包含如下状态:\n\n \n \n public enum QNConnectionState {\n // 未链接状态, SDK 出现无法恢复错误时也进入该状态\n DISCONNECTED,\n // 正在连接状态, 加入房间时首先进入该状态,表示开始连接房间服务\n CONNECTING,\n // 连接成功状态,在完成和房间服务连接后进入该状态\n CONNECTED,\n // 正在重连状态,当和房间的已有连接由于网络中断、网络异常等原因断开,SDK 进行周期性重连时进入该状态\n RECONNECTING,\n // 重连成功状态,当从 RECONNECTING 状态,重新和房间服务建立连接后进入该状态\n RECONNECTED\n }\n \n\n* * *\n\n# 踢人\n\n## 客户端踢人\n\n客户端 SDK 未提供踢人的接口,但是踢人操作可以通过自定义消息来实现。实现步骤可参考如下:\n\n 1. 业务侧协商定义好踢人消息的格式规范\n 2. 踢人方在执行踢人操作时,向指定用户发送协商好的踢人消息\n 3. 被踢方接收到踢人消息后,主动离开当前房间\n\n示例代码参考如下:\n\n**踢人方:**\n\n踢人方发送协商好的踢人消息:\n\n \n \n mClient.sendMessage(Collections.singletonList(\"userID\"), \"messageID\", \"kickOut\");\n \n\n其中,自定义消息的使用方式可以参考\n[QNRTCClient.sendMessage](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#sendMessage%5B1/2%5D)。\n\n**被踢方:**\n\n被踢方监听\n[QNClientEventListener.onMessageReceived](https://developer.qiniu.com/rtc/api/8643/QNClientEventListener#onMessageReceived)\n回调接口来接收踢人消息,并在收到消息后主动离开房间:\n\n \n \n public interface QNClientEventListener {\n @Override\n public void onMessageReceived(QNCustomMessage message) {\n if (\"kickOut\".equals(message.getContent())) {\n // 离开房间\n }\n }\n }\n \n\n## 服务端踢人\n\n服务端提供了踢人的接口,详情可参考[服务端文档](https://developer.qiniu.com/rtc/api/8815/api-\nroom),当服务端执行踢人操作后,会触发被踢方\n[QNClientEventListener.onConnectionStateChanged](https://developer.qiniu.com/rtc/api/8643/QNClientEventListener#onConnectionStateChanged)\n回调:\n\n \n \n public interface QNClientEventListener {\n @Override\n void onConnectionStateChanged(QNConnectionState state, @Nullable QNConnectionDisconnectedInfo info){\n if (state == QNConnectionState.DISCONNECTED \n && info != null \n && info.getReason() == QNConnectionDisconnectedInfo.Reason.KICKED_OUT) {\n // 您已被服务端踢出房间\n }\n }\n }\n \n\n其中,被服务端踢出房间的场景下\n[QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/api/8644/QNConnectionDisconnectedInfo)\n回调的状态为 `QNConnectionState.DISCONNECTED`,同时\n`QNConnectionDisconnectedInfo.Reason` 为 `KICKED_OUT`。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-06-08 11:19:20\n\n本文主要介绍如何实现在房间发布、订阅媒体流。\n\n> * **发布** 是指将创建好的音视频 Track\n> 对应的音视频数据推送到七牛实时音视频服务的操作,执行发布操作后,远端用户可以选择性的进行订阅观看。\n> * **订阅** 是指向七牛实时音视频服务请求拉取远端发布的音视频数据的操作。订阅后,本地即可实时的接收远端发布的音视频数据。\n> * **有别于 CDN 转推** ,发布和订阅的音视频数据是基于实时性更好的 RTP 协议在房间内传输的,若您想要实现 RTMP\n> 直播流分发的场景,请在音视频 Track 发布后,参考 [CDN\n> 转推](https://developer.qiniu.com/rtc/development_guidelines/8770/turn-the-\n> cdn-push-android)进行实现。\n>\n\n# 发布 Track\n\n发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 前,需要对 Track\n进行配置和创建,详情请见[音视频采集](https://developer.qiniu.com/rtc/development_guidelines/8767/audio-\nand-video-collection-android),对于已经创建好的 Track,可通过\n[QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#publish%5B1/4%5D)\n接口向房间内进行发布。\n\n> * 请确保在发布前已经成功加入房间,否则将发布失败。\n>\n\n \n \n // 发布本地音视频 track,支持可变参数\n public void publish(QNLocalTrack... tracks);\n public void publish(List<QNLocalTrack> trackList);\n // 发布本地音视频 track,支持可变参数以及发布结果回调通知\n public void publish(QNPublishResultCallback callback, QNLocalTrack... tracks);\n public void publish(QNPublishResultCallback callback, List<QNLocalTrack> trackList);\n \n\n其中,[QNPublishResultCallback](https://developer.qiniu.com/rtc/api/8673/QNPublishResultCallback)\n回调了发布操作的结果通知,其接口定义如下:\n\n \n \n public interface QNPublishResultCallback {\n // 成功发布 tracks\n void onPublished();\n \n // 发布 tracks 失败\n void onError(int errorCode, String errorMessage);\n }\n \n\n发布 Track 失败的错误码可参考[发布 Track\n相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-error-\ncode-android#3)。\n\n发布 Track 成功后,远端用户会收到如下通知回调:\n\n \n \n public interface QNClientEventListener {\n // 当远端 Track 发布时会触发此回调\n void onUserPublished(String remoteUserID, List<QNRemoteTrack> trackList);\n }\n \n\n# 取消发布 Track\n\n对于已发布的 track,可调用\n[QNRTCClient.unpublish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#unpublish%5B1/2%5D)\n接口取消发布。\n\n \n \n // 取消发布本地音视频 track,支持可变参数\n public void unpublish(QNLocalTrack... tracks);\n public void unpublish(List<QNLocalTrack> trackList)\n \n\n取消发布成功后,远端用户会收到如下通知回调:\n\n \n \n public interface QNClientEventListener {\n // 当远端 Track 取消发布时会触发此回调\n void onUserUnpublished(String remoteUserID, List<QNRemoteTrack> trackList);\n }\n \n\n# 订阅远端 Track\n\n## 自动订阅\n\n在 v2.x.x 版本后提供了默认自动订阅的功能,可通过\n[QNRTCClient.setAutoSubscribe](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#setAutoSubscribe)\n接口进行自动订阅功能的开启与关闭,默认为开启状态。\n\n \n \n public void setAutoSubscribe(boolean autoSubscribe);\n \n\n## 手动订阅\n\n在自动订阅功能关闭时,用户可以通过调用\n[QNRTCClient.subscribe](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#subscribe%5B1/2%5D)\n接口订阅远端 Tracks。\n\n \n \n // 订阅远端音视频 track,支持可变参数\n public void subscribe(QNRemoteTrack... tracks);\n public void subscribe(List<QNRemoteTrack> trackList);\n \n\n**无论是自动订阅还是手动订阅,当成功订阅远端用户媒体流后,都会触如下回调** :\n\n \n \n public interface QNClientEventListener {\n // 当成功订阅远端 Track 时会触发此回调\n void onSubscribed(String remoteUserID, List<QNRemoteAudioTrack> remoteAudioTracks, List<QNRemoteVideoTrack> remoteVideoTracks);\n }\n \n\n成功订阅远端视频后,即可通过\n[QNRemoteVideoTrack.play](https://developer.qiniu.com/rtc/api/8680/QNRemoteVideoTrack#play)\n接口进行远端视频画面的渲染。\n\n# 取消订阅远端 Track\n\n调用\n[QNRTCClient.unsubscribe](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#unsubscribe%5B1/2%5D)\n接口取消订阅远端 Tracks。\n\n \n \n public void unsubscribe(QNRemoteTrack... tracks);\n public void unsubscribe(List<QNRemoteTrack> trackList);\n \n\n# 示例代码\n\n发布订阅场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-engineering/QNRTC-\nAndroid/tree/master/QNRTC-API-Examples)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >CDN 转推\n\n# CDN 转推\n\n最近更新时间: 2023-08-17 15:52:41\n\n本文主要介绍 CDN 转推的使用姿势及其应用场景。\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:**单路流直播** 、**多路流合流直播** 以及**两者结合可切换的直播场景**\n。\n\n> CDN 转推需要配置本地或者远端的音视频 Track,因此,**调用转推接口前请务必保证加入了房间,并且已经发布或者订阅了相应的音视频 Track**\n\n下面将会就三种场景的使用姿势进行说明。\n\n# 设置监听\n\n在进行 CDN 转推之前,需要设置 CDN 转推流的状态监听:\n\n \n \n mClient.setLiveStreamingListener(new QNLiveStreamingListener() {\n @Override\n public void onStarted(String streamID) {\n // 转推任务创建成功时触发此回调\n }\n \n @Override\n public void onStopped(String streamID) {\n // 转推任务成功停止时触发此回调\n }\n \n @Override\n public void onTranscodingTracksUpdated(String streamID) {\n // 合流布局更新成功时触发此回调\n }\n \n @Override\n public void onError(String streamID, QNLiveStreamingErrorInfo errorInfo) {\n // 转推任务出错时触发此回调\n }\n });\n \n\n其中,转推任务出错时的错误原因可参考\n[QNLiveStreamingErrorInfo](https://developer.qiniu.com/rtc/api/8657/QNLiveStreamingErrorInfo)。对应的错误码可参考\n[CDN 转推相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#5)\n\n在设置好监听后,便可以基于业务场景进行`单路转推任务`或者`合流转推任务`的创建了。\n\n# 单路流直播\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n场景示意图如下:\n\n\n\n注意:如果主播有两路视频流(采集+录屏)需要合流转推,请参考多路流合流直播场景实现\n\n单路流转推场景主要实现步骤如下:\n\n## 创建单路转推任务\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8651/QNDirectLiveStreamingConfig)\n用于配置单路转推的相关信息,包括推流地址、参与 CDN 转推的音视频轨等。\n\n创建转推任务的示例代码如下:\n\n \n \n // 创建单路转推任务配置对象\n QNDirectLiveStreamingConfig mDirectLiveStreamingConfig = new QNDirectLiveStreamingConfig();\n // 设置 stream id,该 id 为转推任务的唯一标识符\n mDirectLiveStreamingConfig.setStreamID(mRoomName);\n // 设置推流地址\n mDirectLiveStreamingConfig.setUrl(\"publish url\");\n // 设置单路流中的音频轨,仅支持一路音频的设置,重复设置会被覆盖\n mDirectLiveStreamingConfig.setAudioTrack(mMicrophoneAudioTrack);\n // 设置单路流中的视频轨,仅支持一路视频的设置,重复设置会被覆盖\n mDirectLiveStreamingConfig.setVideoTrack(mCameraVideoTrack);\n // 开始进行单路转推\n mClient.startLiveStreaming(mDirectLiveStreamingConfig);\n \n\n单路转推任务创建成功后,会触发上述 `QNLiveStreamingListener.onStarted`\n回调接口,回调该接口即代表成功开启了单路流转推,可以通过相应的播放链接拉取直播流进行观看。\n\n**注意:**\n\n 1. **QNDirectLiveStreamingConfig 仅支持配置一路视频轨和一路音频轨,重复设置会被覆盖**\n 2. **配置单路转推任务时,请务必保证待转推的音视频 Track 均已成功发布**\n 3. **单路转推场景下,需确保在创建视频 Track 时通过[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig#QNVideoEncoderConfig%5B2/2%5D) 将视频降级模式 [QNDegradationPreference](https://developer.qiniu.com/rtc/8770/turn-the-cdn-push-android/12393/QNDegradationPreference) 设置为 `QNDegradationPreference.MAINTAIN_RESOLUTION` 或者 `QNDegradationPreference.ADAPT_BITRATE_ONLY`,保证推流分辨率不会改变,否则可能会出现不可预期的问题!!!**\n\n## 停止单路转推任务\n\n可以通过如下方式停止单路转推任务:\n\n \n \n mClient.stopLiveStreaming(mDirectLiveStreamingConfig);\n \n\n单路转推任务停止成功后,会触发上述 `QNLiveStreamingListener.onStopped` 回调接口。\n\n######\n\n# 多路流合流直播\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n场景示意图如下:\n\n\n\n为了实现该场景,首先,需要了解下相关配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/api/8696/QNTranscodingLiveStreamingConfig) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack) 用于配置参与 CDN 合流的每一路媒体 Track 在合流画布中的位置、大小等信息。\n\n了解上述概念后,该场景的主要实现步骤如下:\n\n## 开启合流直播\n\n### 创建 QNTranscodingLiveStreamingConfig\n\n \n \n QNTranscodingLiveStreamingConfig mTranscodingLiveStreamingConfig = new QNTranscodingLiveStreamingConfig();\n mTranscodingLiveStreamingConfig.setStreamID(streamID); // 设置 stream id,该 id 为合流任务的唯一标识符\n mTranscodingLiveStreamingConfig.setUrl(\"publish url\"); // 设置合流任务的推流地址\n mTranscodingLiveStreamingConfig.setWidth(480); // 设置合流画布的宽度\n mTranscodingLiveStreamingConfig.setHeight(848); // 设置合流画布的高度\n mTranscodingLiveStreamingConfig.setVideoFrameRate(20); // 设置合流任务的视频帧率\n mTranscodingLiveStreamingConfig.setRenderMode(QNRenderMode.ASPECT_FILL); // 设置合流任务的默认画面填充方式\n mTranscodingLiveStreamingConfig.setBitrate(1000); // 设置合流任务的码率,单位: kbps\n mTranscodingLiveStreamingConfig.setBackground(mBackgroundImage); // 设置合流画布的背景图片,仅支持 HTTP\n mTranscodingLiveStreamingConfig.setWatermarks(Collections.singletonList(mWatermark)); // 设置合流任务的水印\n mClient.startLiveStreaming(mTranscodingLiveStreamingConfig); // 开始转推\n \n\n合流任务创建成功后,会触发上述 `QNLiveStreamingListener.onStarted` 回调接口。可以在该回调接口中设置合流布局\n\n### 设置合流布局\n\n合流任务创建成功之后,即可基于已发布的\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 进行相应的合流布局配置。配置布局前,需要先了解\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack)\n的概念。布局配置的示例代码如下:\n\n \n \n // 配置待合流转推的视频 Track\n QNTranscodingLiveStreamingTrack videoTranscodingTrack = new QNTranscodingLiveStreamingTrack();\n videoTranscodingTrack.setTrackID(videoTrackID); // 设置待合流 Track id\n videoTranscodingTrack.setX(x); // 设置 Track 画面在合流画面中位置的 x 轴坐标\n videoTranscodingTrack.setY(y); // 设置 Track 画面在合流画面中位置的 y 轴坐标\n videoTranscodingTrack.setZOrder(zOrder); // 设置 Track 画面在合流画面中的 zOrder 层级,zOrder 值越大,画面层级越高\n videoTranscodingTrack.setWidth(width); // 设置 Track 画面在合流画面中位置宽度\n videoTranscodingTrack.setHeight(height); // 设置 Track 画面在合流画面中位置高度\n \n // 配置待合流转推的音频 Track\n QNTranscodingLiveStreamingTrack audioTranscodingTrack = new QNTranscodingLiveStreamingTrack();\n audioTranscodingTrack.setTrackID(audioTrackID); // 设置待合流 Track id\n \n\n其中,远端用户的 trackID 可以通过 SDK 提供的相关回调返回的\n[QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/8674/QNRemoteAudioTrack)\n和\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/8680/QNRemoteVideoTrack)\n获取:\n\n \n \n public interface QNClientEventListener {\n // 当成功订阅远端 Track 时会触发此回调\n void onSubscribed(String remoteUserID, List<QNRemoteAudioTrack> remoteAudioTracks, List<QNRemoteVideoTrack> remoteVideoTracks);\n }\n \n\n通过上述代码创建或者更新已有的\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack)\n布局配置后,即可调用如下方法使得相应的布局配置生效:\n\n \n \n /**\n * 新增、更新合流布局\n *\n * @param streamID 合流任务 id\n * @param transcodingTracks 待配置布局的 QNTranscodingLiveStreamingTrack 的列表\n */\n mClient.setTranscodingLiveStreamingTracks(String streamID, List<QNTranscodingLiveStreamingTrack> transcodingTracks);\n \n\n当期望取消某路合流布局时,可以通过如下调用实现:\n\n \n \n /**\n * 设置取消合流布局\n *\n * @param streamID 合流任务 id\n * @param transcodingTracks 待移除布局的 QNTranscodingLiveStreamingTrack 的列表\n */\n mClient.removeTranscodingLiveStreamingTracks(String streamID, List<QNTranscodingLiveStreamingTrack> transcodingTracks);\n \n\n**注意:配置合流转推任务时,请务必保证待转推的音视频 Track 均已成功发布**\n\n## 停止合流直播\n\n可以通过如下方式停止合流转推任务:\n\n \n \n mClient.stopLiveStreaming(mTranscodingLiveStreamingConfig);\n \n\n合流转推任务停止成功后,会触发上述 `QNLiveStreamingListener.onStopped` 回调接口。\n\n# 单路、多路切换直播\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们引入 `serialnum` 的概念以实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8651/QNDirectLiveStreamingConfig) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8696/QNTranscodingLiveStreamingConfig) 两种任务场景推流地址需要保持一致以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,从 1 开始递增,值越大,优先级越高,优先级低的流会被停止掉,便可避免出现抢流的现象。也基于此,合流任务必须使用自定义合流任务,以便自定义推流地址。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,在收到合流转推任务的 `onStarted` 回调之后,在回调中执行 `mClient.stopLiveStreaming(mDirectLiveStreamingConfig)` 来停止单路转推任务\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,在收到单路转推任务的 `onStarted` 回调之后,在回调中执行 `mClient.stopLiveStreaming(mTranscodingLiveStreamingConfig)` 来停止合流转推任务\n\n通过上述方式,即可实现单路流直播、多路流合流直播之间的切换,具体实现也可参照 [demo](https://github.com/pili-\nengineering/QNRTCLive-\nAndroid/blob/master/QNDroidRTCLiveDemo/app/src/main/java/com/qiniu/droid/rtc/live/demo/activity/LiveRoomActivity.java)\n中的相关实现\n\n######\n\n# 发送 SEI\n\nCDN 转推场景支持 SEI 信息的发送,设置方式如下:\n\n \n \n String seiMsg = \"SEI message\";\n // Camera 视频 Track 发送 SEI\n mCameraVideoTrack.sendSEI(seiMsg.getBytes(StandardCharsets.UTF_8), 1);\n // 屏幕录制视频 Track 发送 SEI\n mScreenVideoTrack.sendSEI(seiMsg.getBytes(StandardCharsets.UTF_8), 1);\n // 自定义视频 Track 发送 SEI\n mCustomVideoTrack.sendSEI(seiMsg.getBytes(StandardCharsets.UTF_8), 1);\n \n\n> 1. **对于单路流直播的场景** ,调用上述接口后,播放端即可通过使用支持 SEI 解析的播放器获取到对应的 SEI 信息。\n> 2. **对于多路流合流直播的场景** ,调用上述接口后,还需在配置合流布局时,通过\n> [QNTranscodingLiveStreamingTrack.setSEIEnabled](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack#setSEIEnabled)\n> 接口**指定允许携带 SEI 信息的视频 Track** ,才可正常推送 SEI 信息。需要注意的是,一个合流任务中,仅支持一路视频 Track 携带\n> SEI 信息。\n>\n\n# 注意事项\n\n * CDN 转推需要配置本地或者远端的音视频 Track,因此,**调用转推接口前请务必保证加入了房间,并且已经发布或者订阅了相应的音视频 Track**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖**\n * **为保证单路流直播的质量,需确保在创建视频 Track 时通过[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig#QNVideoEncoderConfig%5B2/2%5D) 将视频降级模式 [QNDegradationPreference](https://developer.qiniu.com/rtc/8770/turn-the-cdn-push-android/12393/QNDegradationPreference) 设置为 `QNDegradationPreference.MAINTAIN_RESOLUTION` 或者 `QNDegradationPreference.ADAPT_BITRATE_ONLY`,保证推流分辨率不会改变**\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,从 1 开始递增,值越大,优先级越高**\n\n# 示例代码\n\nCDN 转推场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/tree/master/QNRTC-API-Examples)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 直推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >CDN 直推\n\n# CDN 直推\n\n最近更新时间: 2024-02-23 19:46:16\n\n本文主要介绍单主播直推 CDN 的使用场景。\n\n在单人直播时,SDK 将主播的音视频直接推流到 CDN 分发,观众端不需要加入 RTC 房间,只需要通过播放器进行拉流播放。\n\n> * QNCDNStreamingConfig 中的 videoTrack 和 audioTrack 参数,确保在整个推流开始和结束的过程中是有效的\n>\n\n使用方式如下:\n\n# 创建 QNCDNStreamingClient\n\nQNCDNStreamingClient 为 RTMP 推流的统一管理类,通过\n[QNRTC.createCDNStreamingClient](https://developer.qiniu.com/rtc/api/8732/QNRTC#createCDNStreamingClient)\n接口来创建\n[QNCDNStreamingClient](https://developer.qiniu.com/rtc/api/12649/QNCDNStreamingClient)\n对象\n\n \n \n QNCDNStreamingClient streamingClient = QNRTC.createCDNStreamingClient();\n \n\n# 设置状态回调和统计信息回调\n\n在进行 CDN 直推之前,需要设置 CDN 直推流的状态监听:\n\n \n \n streamingClient.setCDNStreamingListener(new QNCDNStreamingListener() {\n @Override\n public void onCDNStreamingConnectionStateChanged(QNConnectionState state, int errorCode, String message) {\n // 直播流状态改变时触发此回调\n }\n \n @Override\n public void onCDNStreamingStats(QNCDNStreamingStats stats) {\n // 定期回调直播流统计信息\n }\n });\n \n\n# 开始推流\n\n开始推流之前,需要配置推流参数\n[QNCDNStreamingConfig](https://developer.qiniu.com/rtc/api/12650/QNCDNStreamingConfig)。\n通过调用\n[QNCDNStreamingClient.start](https://developer.qiniu.com/rtc/api/12649/QNCDNStreamingClient#start)\n开始推流。使用代码参考如下:\n\n \n \n // 配置推流参数\n QNCDNStreamingConfig config = new QNCDNStreamingConfig()\n .setVideoTrack(cameraVideoTrack)\n .setAudioTrack(microphoneAudioTrack)\n .setPublishUrl(\"rtmp://xxx/hub/publishUrl\");\n // 开始推流\n streamingClient.start(config);\n \n\n# 停止推流\n\n调用\n[QNCDNStreamingClient.stop](https://developer.qiniu.com/rtc/api/12649/QNCDNStreamingClient#stop)\n停止推流。使用代码参考如下:\n\n \n \n // 停止推流\n streamingClient.stop();\n \n\n# 示例代码\n\nRTMP 直推 CDN 的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/tree/master/QNRTC-API-Examples)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >背景音乐混音\n\n# 背景音乐混音\n\n最近更新时间: 2023-10-25 15:00:54\n\n本文主要介绍连麦过程中添加背景音乐混音的使用场景。\n\n> * 从 v5.2.6\n> 版本开始,[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n> 需要通过\n> [QNRTC.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioMusicMixer)\n> 接口创建,并通过\n> [QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n> 的方式进行关联。将不再支持通过 **QNMicrophoneAudioTrack.createAudioMusicMixer** 创建\n> * 从 v5.1.0\n> 版本开始,[QNAudioMixer](https://developer.qiniu.com/rtc/api/8631/QNAudioMixer)\n> 已废弃,请使用\n> [QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n> 控制类进行背景音乐的混音操作\n> * 背景音乐混音支持本地文件和在线文件,支持的音频文件格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n>\n\n使用方式如下:\n\n# 创建 QNAudioMusicMixer\n\nSDK 支持对不同的音频 Track 设置混音控制器,可以通过\n[QNRTC.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioMusicMixer)\n来创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n对象,再通过\n[QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n的方式进行混音控制器的关联。\n\n \n \n String filePath = \"/sdcard/music/example.mp3\";\n QNAudioMusicMixer audioMixer = QNRTC.createAudioMusicMixer(filePath, mAudioMusicMixerListener); // 创建音乐混音控制器\n localAudioTrack.addAudioFilter(audioMixer); // 关联音乐混音控制器\n \n\n其中,[QNAudioMusicMixerListener](https://developer.qiniu.com/rtc/api/11919/QNAudioMusicMixerListener)\n为混音状态监听器,监听回调定义如下:\n\n \n \n public interface QNAudioMusicMixerListener {\n /**\n * 混音状态改变时会回调\n *\n * @param state 当前状态\n */\n void onStateChanged(QNAudioMusicMixerState state);\n \n /**\n * 混音操作进行过程中会回调\n *\n * @param position 当前正在执行混音操作的音频帧时间戳,单位:ms\n */\n void onMixing(long position);\n \n /**\n * 混音操作发生错误时会回调\n *\n * @param errorCode 错误码\n * @param errorMessage 错误信息\n */\n void onError(int errorCode, String errorMessage);\n }\n \n\n其中,混音状态的改变都会通过\n[QNAudioMusicMixerListener.onStateChanged](https://developer.qiniu.com/rtc/api/11919/QNAudioMusicMixerListener#onStateChanged)\n回调通知到上层。回调的监听状态可参考\n[QNAudioMusicMixerState](https://developer.qiniu.com/rtc/api/11920/QNAudioMusicMixerState)。混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#4)\n\n**注意:同一个音乐混音控制器只能关联一个音频 Track,重复添加将会失败。**\n\n# 混音控制\n\n在创建了\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n实例后,可以通过该实例提供的混音控制接口进行混音操作的控制,使用代码参考如下:\n\n \n \n // 开始混音,成功后会触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.start();\n // 停止混音,成功后会触发 QNAudioMusicMixerState.STOPPED 状态的回调\n mAudioMixer.stop();\n // 恢复混音,成功后会触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.resume();\n // 暂停混音,成功后会触发 QNAudioMusicMixerState.PAUSED 状态的回调\n mAudioMixer.pause();\n // 跳到指定位置进行混音,成功后回触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.seekTo(positionMs);\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)。\n\n# 推送控制\n\nSDK 混音功能默认会将混音音乐推送至远端。\n\n从 v5.2.0 版本开始,SDK 支持配置混音是否需要推送至远端,若关闭推送,则背景音乐将只做本地播放,配置接口如下:\n\n \n \n mAudioMixer.setPublishEnabled(false);\n \n\n**注:**若您的业务场景涉及到本地背景音乐的播放,那么为了避免系统的降噪对通话质量产生影响,我们建议您**\n通过背景音乐混音接口替代其他音频播放器来实现本地音乐的播放**。\n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**背景音乐混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setVolume) 接口进行配置。\n * **背景音乐混音音量** :可以通过 [QNAudioMusicMixer.setMixingVolume](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer#setMixingVolume) 接口进行配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setVolume(0.5f); // 设置麦克风采集(混音)音量\n mMicrophoneAudioTrack.setPlayingVolume(0.5f); // 设置混音后本地播放的音量\n mAudioMusicMixer.setMixingVolume(0.5f); // 设置背景音乐的混音音量\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setEarMonitorEnabled)\n接口进行开启,参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setEarMonitorEnabled(true); // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 切换音乐\n\n背景音乐混音**仅支持同时混合一路背景音乐** ,若需要切换背景音乐,可通过重新调用\n[QNMicrophoneAudioTrack.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#createAudioMusicMixer)\n创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n实例实现。参考代码如下:\n\n \n \n // 使用 music-1 进行混音\n QNAudioMusicMixer audioMusicMixer = QNRTC.createAudioMusicMixer(music1FilePath, mAudioMusicMixerListener); // 创建基于 music-1 的混音控制器\n localAudioTrack.addAudioFilter(audioMusicMixer);\n audioMusicMixer.start(); // 开始 music-1 的混音\n audioMusicMixer.stop(); // 停止 music-1 的混音\n // 切换音乐到 music-2 进行混音\n audioMusicMixer = QNRTC.createAudioMusicMixer(music2FilePath, mAudioMusicMixerListener); // 创建基于 music-2 的混音控制器\n localAudioTrack.addAudioFilter(audioMusicMixer);\n audioMusicMixer.start(); // 开始 music-2 的混音\n audioMusicMixer.stop(); // 停止 music-2 的混音\n \n\n# 注意事项\n\n 1. **混音** 功能会将混音音乐与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-and-subscribe-android),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用。需要注意的是 SDK 内部播放器的音量控制采用了 Android 5.0 以上设置播放音量相关的 API,所以存在设置背景音量对部分低版本机型在本地播放时可能会失效,但在远端听到的是设置好的音量的情况,故混音功能推荐在 Android 5.0 以上的机型中使用以获得最好的体验。\n 3. 同一个音乐混音控制器只能关联一个音频 Track,重复添加将会失败。\n\n# 示例代码\n\n背景音乐混音场景的完整示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/AudioMixerActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频多音效混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >多音效混音\n\n# 多音效混音\n\n最近更新时间: 2023-10-25 14:59:34\n\n本文主要介绍连麦过程中添加多重音效混音的使用场景。\n\n> * 从 v5.2.6\n> 版本开始,[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer)\n> 需要通过\n> [QNRTC.createAudioEffectMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioEffectMixer)\n> 接口创建,并通过\n> [QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n> 的方式进行关联。将不再支持通过 **QNMicrophoneAudioTrack.createAudioEffectMixer** 创建\n> * 音效混音支持本地文件和在线文件,支持的音频格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n>\n\n使用方式如下:\n\n# 创建 QNAudioEffectMixer\n\nSDK 支持对不同的音频 Track 设置音效混音控制器,可以通过\n[QNRTC.createAudioEffectMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioEffectMixer)\n接口来创建\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer)\n对象。再通过\n[QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n的方式进行混音控制器的关联。\n\n \n \n QNAudioEffectMixer audioEffectMixer = mMicrophoneAudioTrack.createAudioEffectMixer(mAudioEffectMixerListener); // 创建音效混音控制器\n localAudioTrack.addAudioFilter(audioEffectMixer); // 关联音效混音控制器\n \n\n其中,[QNAudioEffectMixerListener](https://developer.qiniu.com/rtc/api/11924/QNAudioEffectMixerListener)\n为音效混音监听器,监听回调定义如下:\n\n \n \n public interface QNAudioMusicMixerListener {\n /**\n * 音效混音完成时回调\n *\n * @param effectID 已完成混音的音效 ID\n */\n void onEffectFinished(int effectID);\n \n /**\n * 指定音效混音出错时回调\n *\n * @param effectID 音效 ID\n * @param errCode 错误码\n * @param errorMessage 错误信息\n */\n void onEffectError(int effectID, int errCode, String errorMessage);\n \n /**\n * 音效混音发生错误时回调\n * 已废弃,请使用 onEffectError\n *\n * @param errorCode 错误码\n * @param errorMessage 错误信息\n */\n @Deprecated\n void onError(int errorCode, String errorMessage);\n }\n \n\n混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#4)\n\n**注意:同一个音效混音控制器只能关联一个音频 Track,重复添加将会失败。**\n\n# 创建 QNAudioEffect\n\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11922/QNAudioEffect)\n为音效文件的配置类,可通过\n[QNAudioEffectMixer.createAudioEffect](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer#createAudioEffect)\n接口进行创建,每一个音效文件都需对应一个\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11922/QNAudioEffect)\n实例,使用代码参考如下:\n\n \n \n String filePath = \"/sdcard/effect.mp3\";\n QNAudioEffect audioEffect = mAudioEffectMixer.createAudioEffect(effectID, filePath);\n \n\n**其中,effectID 为音效文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音效混音操作的依据,需保证唯一。**\n\n# 混音控制\n\n在创建了\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer)\n音效混音控制器实例和\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11922/QNAudioEffect)\n音效文件实例后,可以通过如下接口进行音效混音操作的控制。\n\n使用代码参考如下:\n\n \n \n // 开始指定音效混音\n mAudioEffectMixer.start(audioEffect.getID());\n // 停止指定音效混音\n mAudioEffectMixer.stop(audioEffect.getID());\n // 恢复指定音效混音\n mAudioEffectMixer.resume(audioEffect.getID());\n // 暂停指定音效混音\n mAudioEffectMixer.pause(audioEffect.getID());\n // 停止所有正在混音的音效\n mAudioEffectMixer.stopAll();\n // 暂停所有正在混音的音效\n mAudioEffectMixer.pauseAll();\n // 恢复所有已经暂停混音的音效\n mAudioEffectMixer.resumeAll();\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer)。\n\n# 推送控制\n\nSDK 混音功能默认会将混音音效推送至远端。\n\n从 v5.2.0 版本开始,SDK 支持配置混音音效是否需要推送至远端,若关闭推送,则混音音效将只做本地播放,配置接口如下:\n\n \n \n mAudioEffectMixer.setPublishEnabled(audioEffect.getID(), false);\n \n\n**注:**若您的业务场景涉及到本地音效的播放,如礼物音效等,那么为了避免系统的降噪对通话质量产生影响,我们建议您**\n通过音效混音接口替代其他音频播放器来实现本地音效的播放**。\n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**音效混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setVolume) 接口进行配置。\n * **音效混音音量** :可以通过 [QNAudioEffectMixer.setVolume](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer#setVolume) 和 [QNAudioEffectMixer.setAllEffectsVolume](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer#setAllEffectsVolume) 接口分别对指定音效和所有音效进行音量配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setVolume(0.5f); // 设置麦克风采集(混音)音量\n mMicrophoneAudioTrack.setPlayingVolume(0.5f); // 设置混音后本地播放的音量\n mAudioEffectMixer.setVolume(audioEffect.getID(), 0.5f); // 设置指定音效的混音音量\n mAudioEffectMixer.setAllEffectsVolume(0.5f); // 设置所有音效的混音音量\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setEarMonitorEnabled)\n接口进行开启,参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setEarMonitorEnabled(true); // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 注意事项\n\n 1. **混音** 功能会将混音音频与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-and-subscribe-android),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用。需要注意的是 SDK 内部播放器的音量控制采用了 Android 5.0 以上设置播放音量相关的 API,所以存在设置背景音量对部分低版本机型在本地播放时可能会失效,但在远端听到的是设置好的音量的情况,故混音功能推荐在 Android 5.0 以上的机型中使用以获得最好的体验。\n\n# 示例代码\n\n背景音乐混音场景的完整示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/AudioEffectsMixingActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音频裸数据混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >音频裸数据混音\n\n# 音频裸数据混音\n\n最近更新时间: 2023-10-25 15:02:07\n\n本文主要介绍连麦过程中添加 PCM 音频裸数据混音的使用场景。\n\n> * 从 v5.2.6\n> 版本开始,[QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer)\n> 需要通过\n> [QNRTC.createAudioSourceMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioSourceMixer)\n> 接口创建,并通过\n> [QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n> 的方式进行关联。将不再支持通过 **QNMicrophoneAudioTrack.createAudioSourceMixer** 创建\n> * v5.2.0 版本开始支持使用\n> [QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer)\n> 进行 PCM 裸数据的混音操作\n>\n\n使用方式如下:\n\n# 创建 QNAudioSourceMixer\n\nSDK 支持对不同的音频 Track 设置混音控制器,可以通过\n[QNRTC.createAudioSourceMixer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createAudioSourceMixer)\n来创建\n[QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer)\n对象,再通过\n[QNLocalAudioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#addAudioFilter)\n的方式进行混音控制器的关联。\n\n \n \n QNAudioSourceMixer audioSourceMixer = QNRTC.createAudioSourceMixer(mAudioSourceMixerListener); // 创建音源混音控制器\n localAudioTrack.addAudioFilter(audioSourceMixer); // 关联音源混音控制器\n \n\n其中,[QNAudioSourceMixerListener](https://developer.qiniu.com/rtc/api/12211/QNAudioSourceMixerListener)\n为 PCM 混音回调代理,回调方法定义如下:\n\n \n \n public interface QNAudioSourceMixerListener {\n /**\n * 音源混音发生错误时回调\n *\n * @param errorCode 错误码\n * @param errorMessage 错误信息\n */\n void onError(int errorCode, String errorMessage);\n }\n \n\n混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#4)\n\n若需移除音频 Track 上的音源混音控制器,可通过\n[QNLocalAudioTrack.removeAudioFilter](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#removeAudioFilter)\n的方式进行音源混音控制器的移除,使用代码参考如下:\n\n \n \n localAudioTrack.removeAudioFilter(audioSourceMixer); // 移除音源混音控制器\n \n\n**注意:同一个音源混音控制器只能关联一个音频 Track,重复添加将会失败。**\n\n# 创建 QNAudioSource\n\n[QNAudioSource](https://developer.qiniu.com/rtc/api/12210/QNAudioSource)\n为音源配置类,支持两种创建方式:\n\n 1. [QNAudioSourceMixer.createAudioSource[1/2]](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer#createAudioSource%5B1/2%5D):通过非阻塞模式创建 `QNAudioSource`\n 2. [QNAudioSourceMixer.createAudioSource[2/2]](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer#createAudioSource%5B2/2%5D):通过指定阻塞模式创建 `QNAudioSource`\n\n使用代码参考如下:\n\n \n \n // 非阻塞模式\n QNAudioSource audioSource = mAudioSourceMixer.createAudioSource(sourceID);\n \n // 阻塞模式\n QNAudioSource audioSource = mAudioSourceMixer.createAudioSource(sourceID, true);\n \n\n> 阻塞模式的配置决定了 SDK 是否会阻塞数据导入的线程:\n>\n> * 非阻塞模式下,外部数据需要按照每次送入音频数据的时长间隔依次送入,或者直接使用播放器解码后的回调数据来送入,但不宜送入过快,以免丢弃过多的数据。\n> * 阻塞模式下,外部数据需要持续送入 SDK,但不宜送入太多,以免阻塞导入线程的时间过长。\n>\n\n**其中,sourceID 为音源文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音源混音操作的依据,需保证唯一。**\n\n# 数据导入\n\n在创建 [QNAudioSource](https://developer.qiniu.com/rtc/api/12210/QNAudioSource)\n之后,便可以通过\n[QNAudioSourceMixer.pushAudioFrame](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer#pushAudioFrame)\n接口基于 sourceID 进行 PCM 混音数据的导入。\n\n参考代码如下:\n\n \n \n mAudioSourceMixer.pushAudioFrame(sourceID, frame); // 导入待混音的 pcm 数据\n \n\n其中,frame 为\n[QNAudioFrame](https://developer.qiniu.com/rtc/api/8629/QNAudioFrame)\n的对象实例,可以在构造对象实例时指定 pcm 数据的 **buffer** 、**采样率** 、**位宽** 和**声道数** 等信息。\n\n# 推送控制\n\nSDK 混音功能默认会将混音数据推送至远端。\n\nSDK 支持配置音源混音是否需要推送至远端,若关闭推送,则音源混音将只做本地播放,配置接口如下:\n\n \n \n mAudioSourceMixer.setPublishEnabled(audioSource.getID(), false); // 设置指定音源的不发布到远端,仅在本地播放\n \n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**音源混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setVolume) 接口进行配置。\n * **音源混音音量** :可以通过 [QNAudioSourceMixer.setVolume](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer#setVolume) 和 [QNAudioSourceMixer.setAllSourcesVolume](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer#setAllSourcesVolume) 接口分别对指定音源和所有音源进行音量配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setVolume(0.5f); // 设置麦克风采集(混音)音量\n mMicrophoneAudioTrack.setPlayingVolume(0.5f); // 设置混音后本地播放的音量\n mAudioSourceMixer.setVolume(audioSource.getID(), 0.5f); // 设置指定音效的混音音量\n mAudioSourceMixer.setAllSourcesVolume(0.5f); // 设置所有音效的混音音量\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack#setEarMonitorEnabled)\n接口进行开启,参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setEarMonitorEnabled(true); // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 注意事项\n\n 1. **混音** 功能会将混音音频与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-and-subscribe-android),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用。需要注意的是 SDK 内部播放器的音量控制采用了 Android 5.0 以上设置播放音量相关的 API,所以存在设置背景音量对部分低版本机型在本地播放时可能会失效,但在远端听到的是设置好的音量的情况,故混音功能推荐在 Android 5.0 以上的机型中使用以获得最好的体验。\n\n# 示例代码\n\n多音源混音场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/AudioSourcesMixingActivity.java)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音频场景实践"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >音频场景实践\n\n# 音频场景实践\n\n最近更新时间: 2022-11-24 18:42:11\n\n本文主要介绍实时音视频通话过程中的一些特殊音频场景的使用方式。\n\n# 音乐交互类场景\n\n若您的业务场景中包含乐器弹奏、唱歌、外部设备音乐的播放(如伴奏)等音乐交互场景,为了避免系统的降噪对乐器弹奏、伴奏等音乐产生影响,建议在用户演奏时通过\n[QNRTC.setAudioScene](https://developer.qiniu.com/rtc/api/8732/QNRTC#setAudioScene)\n接口将音频场景设置为\n[QNAudioScene.SOUND_EQUALIZE](https://developer.qiniu.com/rtc/api/12165/QNAudioScene#SOUND_EQUALIZE),该场景对环境音和音乐声的还原性更优,可以为用户提供更好的演奏体验。\n\n# 背景音乐(音效)场景\n\n若您的业务场景有添加背景音乐的需求,可以通过 SDK 提供的混音管理类实现:\n\n * [QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer): 音乐混音,多用于对时长较长的背景音乐的混音,同时仅支持对一路音频进行混音\n * [QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer): 音效混音,多用于对时长较短的音乐的混音,如掌声、欢呼声、喝彩声等氛围音以及礼物音效等。支持同时对多路音效文件进行混音\n * [QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer): 音源混音,多用于对音频原始数据 (pcm) 的混音,支持同时对多路音源数据进行混音\n\n## 本地播放\n\n从 v5.2.0 版本开始,SDK 支持关闭混音音乐、音效的推送功能,关闭推送后,混音音乐、音效将只做本地播放。\n\n若您的业务**仅需本地播放音乐、音效,无需将音乐声音推送到远端**\n,那么为了避免系统的降噪对通话质量产生影响,我们建议您**通过上述混音接口替代其他音频播放器来实现本地音乐的播放** 。\n\n关闭远端推送的接口示例如下:\n\n \n \n // 停止背景音乐混音的推送\n QNAudioMusicMixer.setPublishEnabled(false);\n // 停止音效混音的推送\n QNAudioEffectMixer.setPublishEnabled(\"effectID\", false);\n // 停止音源混音的推送\n QNAudioSourceMixer.setPublishEnabled(\"sourceID\", false);\n \n\n# 游戏场景\n\n游戏直播等场景通常需要实现游戏声音的录制、推送功能。为了实现对游戏音频的录制,需要满足如下前提条件:\n\n * 游戏应用允许其声音被第三方应用捕获\n * 您的应用具有相应权限,并实现了“捕获播放的音频”功能\n\n对于上述条件的实现方式,可以参考 [Android\n官方文档](https://developer.android.google.cn/guide/topics/media/playback-\ncapture)。\n\n在具备了上述前提条件后,即可通过如下方式完成游戏声音的录制和推送:\n\n * 捕获游戏声音\n * 将游戏声音作为一路音源推送至 SDK,并通过 SDK 推送至远端。音源混音可参考 [QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer)\n\n# 参考文档\n\n * [QNAudioScene](https://developer.qiniu.com/rtc/api/12165/QNAudioScene)\n * [QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n * [QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11923/QNAudioEffectMixer)\n * [QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12212/QNAudioSourceMixer)\n * [“捕获播放的音频”官方文档](https://developer.android.google.cn/guide/topics/media/playback-capture)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >视频大小流\n\n# 视频大小流\n\n最近更新时间: 2023-08-17 15:51:54\n\n本文主要介绍视频大小流的使用方式。\n\n# 功能介绍\n\n\n\n当用户 A 开启大流时,会发送多个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n# 开启大小流\n\n在创建音视频 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 时,可以通过 Track config 提供的 `setMultiProfileEnabled` 接口来启用大小流功能,以\nQNCameraVideoTrack 为例,其启用方式如下:\n\n \n \n QNCameraVideoTrackConfig cameraVideoTrackConfig = new QNCameraVideoTrackConfig(TAG_CAMERA)\n .setMultiProfileEnabled(true); // 配置启用大小流\n mCameraVideoTrack = QNRTC.createCameraVideoTrack(cameraVideoTrackConfig);\n \n\n开启大小流功能后,发送端可以通过获取统计信息的接口\n[QNRTCClient.getLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getLocalVideoTrackStats)\n来感知发送情况。\n\n# 订阅大小流\n\n订阅端可以通过\n[QNRemoteVideoTrack.isMultiProfileEnabled](https://developer.qiniu.com/rtc/api/8680/QNRemoteVideoTrack#isMultiProfileEnabled)\n接口判断远端用户是否发布大小流。若接口返回 true,则可通过\n[QNRemoteVideoTrack.setProfile](https://developer.qiniu.com/rtc/api/8680/QNRemoteVideoTrack#setProfile)\n来订阅指定的 QNTrackProfile。\n\n示例代码如下:\n\n \n \n if (remoteVideoTrack.isMultiProfileEnabled()) {\n remoteVideoTrack.setProfile(QNTrackProfile.MEDIUM);\n }\n \n\n> **注意:setProfile 接口仅是设置预期的流等级,并不代表实际的订阅等级,若实际发送端还未发送指定等级的流,则将无法订阅到指定的\n> profile**\n\n当订阅指定 profile 生效后,将通过回调\n[QNTrackInfoChangedListener.onVideoProfileChanged](https://developer.qiniu.com/rtc/api/8820/QNTrackInfoChangedListener#onVideoProfileChanged)\n告知,具体使用方式如下:\n\n \n \n remoteVideoTrack.setTrackInfoChangedListener(new QNTrackInfoChangedListener() {\n @Override\n public void onVideoProfileChanged(QNTrackProfile profile) {\n // 当订阅的 profile 发生改变时触发,该 profile 为当前实际订阅到的 profile\n }\n });\n \n\n# 注意事项\n\n * **开启大小流功能设置编码宽高最低为 1280 x 720**\n * **目前仅支持在发送端发布单路视频 Track 的场景下,使用大小流功能**\n * **大小流场景下,需确保在创建视频 Track 时通过[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/8701/QNVideoEncoderConfig#QNVideoEncoderConfig%5B2/4%5D) 将视频降级模式 [QNDegradationPreference](https://developer.qiniu.com/rtc/8772/video-size-flow-android/12393/QNDegradationPreference) 设置为 `QNDegradationPreference.MAINTAIN_RESOLUTION` 或者 `QNDegradationPreference.ADAPT_BITRATE_ONLY`,保证推流分辨率不会改变**\n * **对于开启大小流的用户,建议保证有良好的网络环境,保证多流发送质量**\n\n# 示例代码\n\n大小流场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-engineering/QNRTC-\nAndroid/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/MultiProfileActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话质量统计"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >通话质量统计\n\n# 通话质量统计\n\n最近更新时间: 2023-09-05 15:58:02\n\n本文主要介绍 SDK 如何对通话过程中的网络以及音视频的质量进行监控。\n\n> 获取通话中的质量监测信息前,请确保您已经**加入了房间** 并且**已经发布或订阅了相关的音视频 Track** 。\n\n# 上下行网络质量\n\n## 获取本地上下行网络质量\n\n在**加入了房间** 并且**已经发布或者订阅了音视频 Track** 后,可通过\n[QNRTCClient.setNetworkQualityListener](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#setNetworkQualityListener)\n接口设置\n[QNNetworkQualityListener](https://developer.qiniu.com/rtc/api/8671/QNNetworkQualityListener)\n回调来监听本地的上下行网络质量。该监听**每隔 3s** 会回调一次当前的网络上下行质量信息,质量等级可参考\n[QNNetworkGrade](https://developer.qiniu.com/rtc/api/8669/QNNetworkGrade)。\n\n其中,质量等级是基于当前用户通话过程中的网络、丢包以及 RTT 综合评估得出的。\n\n## 获取远端上下行网络质量\n\n不同于本地上下行网络质量的监听获取方式,远端上下行网络质量需**主动调用接口获取** ,您可在需要的时候调用\n[QNRTCClient.getUserNetworkQuality](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getUserNetworkQuality)\n接口获取当前房间内所有远端用户的上下行质量信息。其中,获取到的质量等级可参考\n[QNNetworkGrade](https://developer.qiniu.com/rtc/api/8669/QNNetworkGrade)。\n\n# 音频质量统计\n\n## 获取本地音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getLocalAudioTrackStats)\n接口获取当前本地的音频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/8661/QNLocalAudioTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nuplinkBitrate| 本地音频上行的码率,单位 bps \nuplinkRTT| 本地音频上行的网络延时,单位 ms \nuplinkLostRate| 本地音频上行的丢包率,范围 [0, 100] \n \n## 获取远端音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getRemoteAudioTrackStats)\n接口获取当前远端的音频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/8675/QNRemoteAudioTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \ndownlinkBitrate| 本地拉取远端音频时下行的码率,单位 bps \ndownlinkLostRate| 本地拉取远端音频时下行的丢包率,范围 [0, 100] \nuplinkRTT| 远端音频上行的网络延时,单位 ms \nuplinkLostRate| 远端音频上行的丢包率,范围 [0, 100] \n \n# 视频质量统计\n\n## 获取本地视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getLocalVideoTrackStats)\n接口获取当前本地的视频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8664/QNLocalVideoTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前所统计视频的[质量等级](https://developer.qiniu.com/rtc/api/10056/QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/8772/video-\nsize-flow-android)文档 \nuplinkFrameRate| 本地视频上行的帧率 \nuplinkBitrate| 本地视频上行的码率,单位 bps \nuplinkRTT| 本地视频上行的网络延时,单位 ms \nuplinkLostRate| 本地视频上行的丢包率,范围 [0, 100] \nuplinkFrameWidth| 本地上行视频帧的宽度,该数值为 SDK 实际对齐后编码发布的视频帧宽度 \nuplinkFrameHeight| 本地上行视频帧的高度,该数值为 SDK 实际对齐后编码发布的视频帧高度 \ncaptureFrameRate| 本地采集的视频帧率,单位 fps \ncaptureFrameWidth| 本地采集的视频帧宽度 \ncaptureFrameHeight| 本地采集的视频帧高度 \ntargetFrameRate| 期望的视频编码帧率,单位 fps \ntargetFrameWidth| 期望的视频编码宽度 \ntargetFrameHeight| 期望的视频编码高度 \n \n## 获取远端视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#getRemoteVideoTrackStats)\n接口获取当前远端的视频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/8681/QNRemoteVideoTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前订阅的视频的[质量等级](https://developer.qiniu.com/rtc/api/10056/QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/8772/video-\nsize-flow-android)文档 \ndownlinkFrameRate| 本地拉取远端视频时下行的帧率 \ndownlinkBitrate| 本地拉取远端视频时下行的码率,单位 bps \ndownlinkLostRate| 本地拉取远端视频时下行的丢包率,范围 [0, 100] \nuplinkRTT| 远端视频上行的网络延时,单位 ms \nuplinkLostRate| 远端视频上行的丢包率,范围 [0, 100] \nuplinkFrameWidth| 远端上行视频帧宽度 \nuplinkFrameHeight| 远端上行视频帧高度 \n \n# 示例代码\n\n上述已经简单介绍了质量统计信息的获取方式,相对应的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/MediaStatisticsActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话音量监听"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >通话音量监听\n\n# 通话音量监听\n\n最近更新时间: 2023-10-25 15:05:54\n\n本文主要介绍如何通过 SDK 获取本地和远端用户在通话过程中的音量,进而判断用户是否在讲话。\n\n> 实现方式是通过周期性调用 SDK 接口获取本地及远端音频 Track 的音量值,再通过音量值来判断用户是否在讲话\n\n# 监听本地音量\n\nSDK 提供了\n[QNLocalAudioTrack.getVolumeLevel](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#getVolumeLevel)\n接口用于获取本地音频 Track 的音量。\n\n以麦克风 Track 为例,可以通过如下方式实现对本地采集音量的感知:\n\n \n \n mAudioVolumeTimer = new Timer();\n mAudioVolumeTimer.scheduleAtFixedRate(new TimerTask() {\n @Override\n public void run() {\n float localVolume = mMicrophoneAudioTrack.getVolumeLevel();\n if (localVolume >= 0.1f) {\n // 本地用户正在讲话\n }\n }\n }, 0, GET_VOLUME_LEVEL_INTERVAL);\n \n\n其中,`GET_VOLUME_LEVEL_INTERVAL` 为获取音量值的时间间隔,可根据您的场景自行定义其大小。\n\n> 若用户通过\n> [QNLocalAudioTrack.setMuted](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#setMuted)\n> 将自己静音,由于该操作仅会静默推送出去的音频帧,并未停止音频采集,因此,仍可通过 `getVolumeLevel` 接口获取到有效的采集音量值。\n\n# 监听远端音量\n\nSDK 提供了\n[QNRemoteAudioTrack.getVolumeLevel](https://developer.qiniu.com/rtc/api/8674/QNRemoteAudioTrack#getVolumeLevel)\n接口用于获取远端音频 Track 的音量。\n\n可以通过如下方式实现对远端音频 Track 音量的感知:\n\n \n \n mAudioVolumeTimer = new Timer();\n mAudioVolumeTimer.scheduleAtFixedRate(new TimerTask() {\n @Override\n public void run() {\n float remoteVolume = mRemoteAudioTrack.getVolumeLevel();\n if (remoteVolume >= 0.1f) {\n // 远端用户正在讲话\n }\n }\n }, 0, GET_VOLUME_LEVEL_INTERVAL);\n \n\n其中,`GET_VOLUME_LEVEL_INTERVAL` 为获取音量值的时间间隔,可根据您的场景自行定义其大小\n\n# 语音激励\n\n从 v5.2.6 版本开始,SDK 可通过\n[QNRTCClient.enableAudioVolumeIndication](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#enableAudioVolumeIndication)\n接口开启语音激励功能。开启后,房间内用户的语音音量将会以从大到小的顺序,根据配置的时间间隔进行周期性的回调。使用示例如下:\n\n \n \n mClient = QNRTC.createClient(new QNClientEventListener() {\n @Override\n public void onUserVolumeIndication(List<QNAudioVolumeInfo> userVolumeList) {\n // 语音激励的回调通知,音量将以从大到小的顺序进行回调\n }\n });\n mClient.enableAudioVolumeIndication(3000); // 配置语音激励回调间隔为 3000ms\n \n\n其中,`enableAudioVolumeIndication` 的参数为指定的回调周期, ≤0 表示禁用该功能,>0 表示指定间隔,单位为\nms,默认关闭,最小取值为 100\n\n**注意** :若是本地用户,则返回的音量列表中,QNVolumeInfo 中的 userID 字段将会为 \"\"\n\n# 注意事项\n\n 1. 在安静的环境下,**获取到 0.3x 大小的数值可能为环境音的音量,是预期的现象** ,可根据需求自行决定判断用户是否讲话的音量阈值\n 2. 本地音量获取的数值会受到 [QNLocalAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack#setVolume) 接口的影响,在确定讲话阈值的时候需要搭配使用\n 3. 获取音量接口为主动接口,需要您启动一个定时器,进行周期性的音量获取\n\n# 示例代码\n\n上述已经简单介绍了通话音量的监听方式,相对应的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/MicrophoneOnlyActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频跨房媒体转发"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >跨房媒体转发\n\n# 跨房媒体转发\n\n最近更新时间: 2022-11-24 18:43:48\n\n本文主要介绍跨房媒体转发的使用以及场景\n\n跨房媒体转发允许主播不离开自己的所在的房间,仅通过信令的操作,转发自己的音视频到其他的房间。七牛 RTC SDK\n支持同时转发多路至多个房间(具体按照设备状况以及网络状况决定)。依赖此功能,可以很方便的实现直播过程中的连麦,小班课等业务。\n\n# 名词解释\n\n场景:\n\n * [QNClientMode.LIVE](https://developer.qiniu.com/rtc/10162/QNClientMode#LIVE): 用于互动直播场景,可以通过设置角色来控制权限。主播可以发布和订阅音视频,观众仅能订阅音视频。\n * [QNClientMode.RTC](https://developer.qiniu.com/rtc/10162/QNClientMode#RTC): 用于通信场景,所有人都可以发布自己的音视频,不可设置角色。\n\n角色:\n\n * [QNClientRole.BROADCASTER](https://developer.qiniu.com/rtc/10163/QNClientRole#BROADCASTER): 主播角色,拥有发布和订阅音视频的权限。\n * [QNClientRole.AUDIENCE](https://developer.qiniu.com/rtc/10163/QNClientRole#AUDIENCE): 观众角色,仅有订阅音视频的权限。\n\n# 使用前注意事项\n\n**请注意当前跨房功能仅对场景为直播,且角色为主播的场景下才能使用:**\n\n \n \n // 使用直播场景和主播角色来创建 QNRTCClient\n QNRTCClientConfig clientConfig = new QNRTCClientConfig(QNClientMode.LIVE, QNClientRole.BROADCASTER);\n QNRTCClient client = QNRTC.createClient(clientConfig, this);\n \n // 创建 client 后依然可以修改角色,但是无法修改场景\n client.setClientRole(QNClientRole.BROADCASTER, QNClientRoleResultCallback);\n \n\n对于以下几种情况:\n\n * 场景为 [QNClientMode.RTC](https://developer.qiniu.com/rtc/10162/QNClientMode#RTC),则必须使用 [QNClientMode.LIVE](https://developer.qiniu.com/rtc/10162/QNClientMode#LIVE) 重新创建房间。\n * 已加入房间,且场景为 [QNClientMode.LIVE](https://developer.qiniu.com/rtc/10162/QNClientMode#LIVE) ,但是角色为 [QNClientRole.AUDIENCE](https://developer.qiniu.com/rtc/10163/QNClientRole#AUDIENCE),则不需要退出房间,执行以下步骤即可: \n 1. 调用 `client.setClientRole(QNClientRole.BROADCASTER, QNClientRoleResultCallback)`;\n 2. 等待 `QNClientRoleResultCallback.onResult(QNClientRole newRole)` 触发,且角色成功切换为 `QNClientRole.BROADCASTER`。\n 3. 调用跨房媒体转发 API。\n\n# 开启跨房媒体转发\n\n通过\n[QNRTCClient.startMediaRelay](https://developer.qiniu.com/rtc/8684/QNRTCClient#startMediaRelay)\n接口开启跨房媒体转发,在 `QNMediaRelayResultCallback.onResult` 中收到回调,具体回调状态参考\n`QNMediaRelayState`,成功会返回 `Success`,否则返回其他值:\n`UNKNOWN`,`INVALID_TOKEN`,`NO_ROOM`,`ROOM_CLOSED`,`PLAYER_EXISTED`。\n\n \n \n public void startMediaRelay(QNMediaRelayConfiguration configuration, QNMediaRelayResultCallback callback);\n \n\n其中,[QNMediaRelayConfiguration](https://developer.qiniu.com/rtc/10165/QNMediaRelayConfiguration)\n为跨房媒体转发的配置类,主要包含如下配置方法:\n\n \n \n QNMediaRelayConfiguration.setSrcRoomInfo(QNMediaRelayInfo srcRoomInfo); // 设置源房间信息\n QNMediaRelayConfiguration.addDestRoomInfo(QNMediaRelayInfo destRoomInfo); // 添加目标房间信息\n \n\n[QNMediaRelayResultCallback](https://developer.qiniu.com/rtc/10167/QNMediaRelayResultCallback)\n为跨房媒体转发操作的结果监听,主要包含如下回调接口:\n\n \n \n public interface QNMediaRelayResultCallback {\n /**\n * 跨房媒体转发操作成功时触发\n * 跨房媒体转发结果以回调的房间名相对应的 QNMediaRelayState 为准,包括 SUCCESS、INVALID_TOKEN、NO_ROOM 等\n *\n * @param stateMap 具体目标房间状态, key 为房间名, value 为状态\n */\n void onResult(Map<String, QNMediaRelayState> stateMap);\n \n /**\n * 失败回调\n *\n * @param errorCode 失败 error code\n * @param description 失败描述\n */\n void onError(int errorCode, String description);\n }\n \n\n示例代码如下:\n\n \n \n QNMediaRelayInfo sourceInfo = new QNMediaRelayInfo(roomName, token);\n QNMediaRelayConfiguration configuration = new QNMediaRelayConfiguration(sourceInfo);\n // 添加目标房间\n QNMediaRelayInfo destInfo1 = new QNMediaRelayInfo(destRoomName1, destRoomRelayToken1);\n QNMediaRelayInfo destInfo2 = new QNMediaRelayInfo(destRoomName2, destRoomRelayToken2);\n configuration.addDestRoomInfo(destInfo1);\n configuration.addDestRoomInfo(destInfo2);\n engine.startMediaRelay(configuration, new QNMediaRelayResultCallback());\n \n\n# 更新跨房媒体转发\n\n通过\n[QNRTCClient.updateMediaRelay](https://developer.qiniu.com/rtc/8684/QNRTCClient#updateMediaRelay)\n接口更新跨房媒体转发,在 `QNMediaRelayResultCallback.onResult` 中收到回调\n**注意此接口中的`configuration` 为全量更新,如已经开启的跨房的目标房间未被包含,则会被停止**\n\n \n \n public void updateMediaRelay(QNMediaRelayConfiguration configuration, QNMediaRelayResultCallback callback);\n \n\n例:\n\n \n \n QNMediaRelayInfo sourceInfo = new QNMediaRelayInfo(roomName, token);\n QNMediaRelayConfiguration configuration = new QNMediaRelayConfiguration(sourceInfo);\n // 添加目标房间\n QNMediaRelayInfo destInfo1 = new QNMediaRelayInfo(destRoomName1, destRoomRelayToken1);\n QNMediaRelayInfo destInfo2 = new QNMediaRelayInfo(destRoomName2, destRoomRelayToken2);\n configuration.addDestRoomInfo(destInfo1);\n configuration.addDestRoomInfo(destInfo2);\n engine.updateMediaRelay(configuration, new QNMediaRelayResultCallback());\n \n\n# 停止跨房媒体转发\n\n通过\n[QNRTCClient.stopMediaRelay](https://developer.qiniu.com/rtc/8684/QNRTCClient#stopMediaRelay)\n接口停止跨房媒体转发,所有已开启的跨房行为将被停止,在 `QNMediaRelayResultCallback.onResult` 中收到回调\n\n \n \n public void stopMediaRelay(QNMediaRelayResultCallback callback);\n \n\n# 事件通知\n\n * 主动跨房的主播 A,在转发过程中可通过 [QNClientEventListener.onMediaRelayStateChanged](https://developer.qiniu.com/rtc/8643/QNClientEventListener#onMediaRelayStateChanged) 回调接收当前跨房媒体转发流的状态更新;注意,该回调非主动调用触发。\n * 被跨房的主播 B,当主播 A 跨房成功之后,会触发 [QNClientEventListener.onUserJoined](https://developer.qiniu.com/rtc/8643/QNClientEventListener#onUserJoined) 等用户加入,离开,发布音视频等回调。\n\n# 直播连麦 pk\n\n使用跨房媒体转发方案,可以很方便的解决连麦 pk 这类场景的需求。 主播 A 不再需要离开自己的房间,只需通过以下步骤即可:\n\n 1. 业务协商,主播 A 通过 `RTCSDK` 自定义消息或者业务服务器长连接向主播 B 发送连麦请求,如果请求通过,则进行下一步\n 2. 主播 A 调用 `QNRTCClient.startMediaRelay`,主播 B 收到主播 A 加入房间和发布音视频等一系列消息后,再使用 `setTranscodingLiveStreamingTracks` 方法更新合流布局即可。[CDN 转推参考](https://developer.qiniu.com/rtc/development_guidelines/8770/turn-the-cdn-push-android)。\n 3. 主播 B 操作同主播 A。\n 4. 连麦结束后,各自调用 `QNRTCClient.stopMediaRelay` 停止跨房,并调用 `removeTranscodingLiveStreamingTracks` 移除连麦布局。[CDN 转推参考](https://developer.qiniu.com/rtc/development_guidelines/8770/turn-the-cdn-push-android)。\n 5. 结束\n\n# 示例代码\n\n跨房媒体转发场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/MediaRelayActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频本地录制"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >音视频本地录制\n\n# 音视频本地录制\n\n最近更新时间: 2024-06-28 17:54:33\n\n本文主要介绍连麦过程中音视频本地录制的使用场景。\n\n> * v6.2.0 版本开始支持使用\n> [QNMediaRecorder](https://developer.qiniu.com/rtc/api/12726/QNMediaRecorder-\n> Android) 进行音视频本地录制的操作\n> * 支持录制格式:wav、aac、mp4\n> * 音频 Track 添加混音时,混音数据不支持参与录制保存\n> * 录制 mp4\n> 的情况下,需确保开启了[保持分辨率](https://developer.qiniu.com/rtc/api/12393/QNDegradationPreference#MAINTAIN_RESOLUTION)的配置\n>\n\n使用方式如下:\n\n# 创建 QNMediaRecorder\n\nSDK 当前支持基于\n[QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack)\n和\n[QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8663/QNLocalVideoTrack)\n的录制功能,可以通过\n[QNRTC.createMediaRecorder](https://developer.qiniu.com/rtc/api/8732/QNRTC#createMediaRecorder)\n来创建\n[QNMediaRecorder](https://developer.qiniu.com/rtc/api/12726/QNMediaRecorder-\nAndroid) 对象\n\n \n \n QNMediaRecorder mediaRecorder = QNRTC.createMediaRecorder();\n mediaRecorder.setMediaRecorderListener(new QNMediaRecorderListener());\n \n\n其中,[QNMediaRecorderListener](https://developer.qiniu.com/rtc/api/12725/QNMediaRecorderListener)\n为音视频本地录制回调监听,回调方法定义如下:\n\n \n \n /**\n * 媒体录制信息更新回调\n *\n * @param info 媒体录制信息\n */\n void onRecordInfoUpdated(QNMediaRecordInfo info);\n \n /**\n * 媒体录制状态改变回调\n *\n * @param state 录制状态\n * @param code 状态码\n */\n void onRecordStateChanged(QNMediaRecorderState state, int code);\n \n\n音视频本地录制的错误码可参考[录制相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#8)\n\n# 开始录制\n\n需要设置录制相关配置参考如下:\n\n * **文件路径** :请确保路径完整精确到文件名和类型,存在有效且有读写权限,支持 wav、aac、mp4\n * **音频源** :可以设置麦克风或自定义音频,仅支持一路音频轨的设置,重复设置会被覆盖。\n * **视频源** :可以设置摄像头或自定义视频,仅支持一路视频轨的设置,重复设置会被覆盖。\n\n参考代码如下:\n\n \n \n QNLocalAudioTrack audioTrack = QNRTC.createMicrophoneAudioTrack();\n QNLocalVideoTrack videoTrack = QNRTC.createCameraVideoTrack();\n \n QNMediaRecorderConfig mediaConfig = new QNMediaRecorderConfig(filePath, audioTrack, videoTrack);\n \n int result = mediaRecorder.startRecording(mediaConfig);\n if (result != 0) {\n //开始录制发生错误\n }\n \n\n# 停止录制\n\n参考代码如下:\n\n \n \n int result = mediaRecorder.stopRecording();\n if (result != 0) {\n //结束录制发生错误\n }\n \n\n# 注意事项\n\n 1. 录制实现相关配置时,应当务必保证保存地址、Track 有效可用\n 2. 建议实现 [QNMediaRecorderListener](https://developer.qiniu.com/rtc/api/12725/QNMediaRecorderListener) 回调,对应实际状态做相应处理\n 3. 开始录制或停止录制时,根据返回值的结果做相应的业务处理,可避免后续非预期行为\n 4. 对自定义音视频进行录制时,应当确保音视频同步传入,否则可能存在音频录制后播放非预期的情况\n\n# 示例代码\n\n音视频本地录制场景的示例代码可参考 [QNRTC-API-Examples](https://github.com/pili-\nengineering/QNRTC-Android/blob/master/QNRTC-API-\nExamples/app/src/main/java/com/qiniu/droid/rtc/api/examples/activity/MediaRecorderActivity.java)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频媒体播放器"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >媒体播放器\n\n# 媒体播放器\n\n最近更新时间: 2024-08-23 17:56:20\n\n本文主要介绍媒体播放器的使用场景。\n\n> * v6.4.0 版本开始支持使用\n> [QNMediaPlayer](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer)\n> 媒体播放器\n> * 支持播放格式:mp4、flv、mov、mp3、wav、opus、flac、ogg、aac 等格式\n> * 支持将播放音视频流发布到房间内\n> * 解决房间内,因为硬件回音消除,导致媒体播放音量被抑制的问题\n>\n\n使用方式如下:\n\n# 创建 QNMediaPlayer\n\nSDK 可以通过\n[QNRTC.createMediaPlayer](https://developer.qiniu.com/rtc/api/8732/QNRTC#createMediaPlayer)\n来创建 [QNMediaPlayer](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer)\n对象\n\n \n \n QNMediaPlayer mediaPlayer = QNRTC.createMediaPlayer();\n mMediaPlayer.setMediaPlayerListener(new QNMediaPlayerListener());\n \n\n其中,[QNMediaPlayerListener](https://developer.qiniu.com/rtc/api/12750/QNMediaPlayerListener)\n为媒体播放器回调监听类,回调方法定义如下:\n\n \n \n /**\n * 播放器状态改变时触发\n *\n * @param state 播放器状态\n */\n void onPlayerStateChanged(QNPlayerState state);\n \n /**\n * 播放器事件改变时触发\n *\n * @param event 播放器事件\n * @param info 事件信息,如错误码等\n */\n void onPlayerEvent(QNPlayerEvent event, QNPlayerEventInfo info);\n \n /**\n * 播放进度更新时触发\n *\n * @param position 当前的播放进度,单位 ms\n */\n void onPlayerPositionChanged(long position);\n \n\n媒体播放器的错误码可参考[播放器相关错误码](https://developer.qiniu.com/rtc/development_guidelines/9904/rtc-\nerror-code-android#9)\n\n# 开始播放\n\n需要配置播放器的数据源\n\n参考代码如下:\n\n \n \n QNMediaSource source = new QNMediaSource(\"xxx.mp4\");\n int ret = mediaPlayer.play(source);\n if (ret != QNErrorCode.SUCCESS) {\n Log.e(TAG, \"play error : \" + ret);\n }\n \n\n# 停止播放\n\n参考代码如下:\n\n \n \n int ret = mediaPlayer.stop();\n if (ret != QNErrorCode.SUCCESS) {\n Log.e(TAG, \"stop error : \" + ret);\n }\n \n\n# 暂停播放\n\n参考代码如下:\n\n \n \n int ret = mediaPlayer.pause();\n if (ret != QNErrorCode.SUCCESS) {\n Log.e(TAG, \"pause error : \" + ret);\n }\n \n\n# 恢复播放\n\n参考代码如下:\n\n \n \n int ret = mediaPlayer.resume();\n if (ret != QNErrorCode.SUCCESS) {\n Log.e(TAG, \"resume error : \" + ret);\n }\n \n\n# 改变播放位置\n\n参考代码如下:\n\n \n \n int ret = mediaPlayer.seekTo(2000);\n if (ret != QNErrorCode.SUCCESS) {\n Log.e(TAG, \"seekTo error : \" + ret);\n }\n \n\n# 设置循环播放次数\n\n可通过\n[QNMediaPlayer.setLoopCount](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#setLoopCount)\n接口进行循环次数的设置,未设置的情况下,默认播放一次,若设置了指定循环次数,则将在默认播放一次的基础上,再循环播放指定次数。\n\n参考代码如下:\n\n \n \n mediaPlayer.setLoopCount(2); // 一共将会播放三次\n \n\n# 设置视频渲染视图\n\n可通过\n[QNMediaPlayer.setView](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#setView)\n接口进行视频画面渲染视图的设置,设置后,若存在有效的视频数据,画面将会在视图上进行显示。\n\n参考代码如下:\n\n \n \n mediaPlayer.setView(new QNSurfaceView());\n \n\n# 获取媒体时长\n\n参考代码如下:\n\n \n \n // 获取点播文件总时间\n int duration = mediaPlayer.getDuration();\n \n\n# 获取媒体音频 Track\n\n若想要将媒体发布到房间内,可通过\n[QNMediaPlayer.getMediaPlayerAudioTrack](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#getMediaPlayerAudioTrack)\n方法获取到对应的媒体音频 Track,再通过\n[QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#publish%5B1/4%5D)\n等接口实现最终的发布。\n\n参考代码如下:\n\n \n \n // 获取 audioTrack \n QNCustomAudioTrack audioTrack = mediaPlayer.getMediaPlayerAudioTrack();\n // 发布到房间内\n rtcClient.publish(audioTrack);\n \n\n# 获取媒体视频 Track\n\n若想要将媒体发布到房间内,可通过\n[QNMediaPlayer.getMediaPlayerVideoTrack](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#getMediaPlayerVideoTrack)\n方法获取到对应的媒体视频 Track,再通过\n[QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#publish%5B1/4%5D)\n等接口实现最终的发布。\n\n参考代码如下:\n\n \n \n // 获取 videoTrack \n QNCustomVideoTrack videoTrack = mediaPlayer.getMediaPlayerVideoTrack();\n // 发布到房间内\n rtcClient.publish(videoTrack);\n \n\n# 获取当前播放状态\n\n可通过\n[QNMediaPlayer.getCurrentPlayerState](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#getCurrentPlayerState)\n接口获取当前的播放状态。\n\n示例代码如下:\n\n \n \n QNPlayerState state = mediaPlayer.getCurrentPlayerState();\n \n\n# 获取当前的播放位置\n\n可通过\n[QNMediaPlayer.getCurrentPosition](https://developer.qiniu.com/rtc/api/12749/QNMediaPlayer#getCurrentPosition)\n接口获取当前的播放位置,返回位置单位为 ms。\n\n示例代码如下:\n\n \n \n int currentPos = mediaPlayer.getCurrentPosition();\n \n\n# 错误码\n\nAPI 返回的错误码和通过\n[QNMediaPlayerListener](https://developer.qiniu.com/rtc/api/12750/QNMediaPlayerListener)\n的 `onPlayerEvent`\n[QNPlayerEventInfo](https://developer.qiniu.com/rtc/api/12754/QNPlayerEventInfo)\n回调拿到异步处理过程中的错误码,可查看具体错误码含义\n\n \n \n /**\n * 播放器打开媒体文件失败\n */\n public static final int ERROR_PLAYER_OPEN_FILE_FAILED = 50001;\n \n /**\n * 媒体播放器解码失败\n */\n public static final int ERROR_PLAYER_DECODER_FAILED = 50002;\n \n /**\n * 媒体播放器 seek 失败\n */\n public static final int ERROR_PLAYER_SEEK_FAILED = 50003;\n \n /**\n * 非法媒体播放器状态\n */\n public static final int ERROR_PLAYER_INVALID_STATE = 50004;\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >错误码\n\n# 错误码\n\n最近更新时间: 2024-08-23 17:56:29\n\n本文主要介绍 Android QNRTC SDK 相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nSUCCESS| 0| 无错误| 无 \nERROR_TOKEN_ERROR| 10001| 房间 Token 错误| 表示您提供的房间 token 不符合七牛 token 签算规则,详情请参考\n[RoomToken 签发服务](https://developer.qiniu.com/rtc/8813/roomToken) \nERROR_TOKEN_EXPIRED| 10002| 房间 Token 过期| 表示您的房间 token 过期,需要重新生成 token 再加入 \nERROR_PLAYER_ALREADY_EXIST| 10022| 房间内已经有同名用户|\n后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nERROR_MEDIA_CAP_NOT_SUPPORT| 10054| 媒体协商失败| 表示该设备不支持指定的音视频格式,无法进行连麦的操作 \nERROR_AUTH_FAILED| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 token 验证失败,建议检查签算\ntoken 的信息是否异常,若 token 无误,可重新尝试加入房间 \nERROR_RECONNECT_FAILED| 21003| 30s 内未能重连成功或者重连时房间已被销毁| 建议检查网络并重新申请 token\n加入房间。当发生该错误时,之前创建的转推任务将被服务销毁,如有需要,应在下次成功加入房间后按业务需要恢复 \nERROR_FATAL| 21005| 非预期错误| 表示 RTC 生命周期异常,需要释放资源并重新初始化 \n \n> **SDK 重连机制:**\n>\n> SDK 内部会尝试不断重连,但若 30s 内无法完成有效的重连过程,则超时后的重连请求在到达 RTC 服务后会抛出\n> `ERROR_RECONNECT_FAILED` 错误\n\n# 设备采集相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_DEVICE_CAMERA| 23001| 系统摄像头错误,无权限或者摄像头被占用| 请确认应用是否获取 Camera\n的权限或者摄像头是否被占用 \nERROR_DEVICE_CAMERA_EVICTED| 23002| 摄像头被其他应用抢占| 请确认是否有其他应用抢占摄像头 \nERROR_MIC_INIT_FAILED| 23006| 系统麦克风初始化错误,无权限或者麦克风被占用|\n请确认应用是否获取音频录制的权限或者麦克风是否被占用 \nERROR_MIC_CAPTURE_FAILED| 23007| 麦克风录制失败| 可尝试取消发布并重新发布麦克风 Track \nERROR_IMAGE_PARSER_FAILED| 25004| 图片推流解析图片失败| 可尝试重新进行图片推流的操作 \n \n# 发布 Track 相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_INVALID_PARAMETER| 10053| 非法参数| 请检查待发布 Track 是否为本地 Track,并且不为空 \nERROR_INVALID_STATE| 21002| 非法状态| 请检查是否已经加入房间 \nERROR_FATAL| 21005| 非预期错误| RTC 生命周期异常,需要释放资源并重新初始化 \n \n# 混音相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_AUDIO_MIXING_RESAMPLE_CREATE_FAILED| 22001| 重采样模块创建失败| 请重新尝试混音操作 \nERROR_AUDIO_MIXING_AUDIO_NOT_FOUND| 22002| 混音源没有找到有效音轨| 请检查混音源文件是否存在有效音轨 \nERROR_AUDIO_MIXING_IO_EXCEPTION| 22003| 混音源文件 IO 错误| 请检查混音源文件是否合法。SDK\n支持的音频文件格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac;若混音的是在线音频,请检查网络是否正常 \nERROR_AUDIO_MIXING_DECODER_EXCEPTION| 22004| 音频解码异常| 可通过 start\n接口重新尝试混音操作。若混音的是在线音频,请检查网络是否正常 \nERROR_AUDIO_MIXING_SEEK_FAILED| 22005| seek 失败| 请检查是否在开始混音前执行了 Seek 操作 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_NO_PERMISSION| 10051| 无操作权限| 请确认用户 RoomToken 签算时是否有赋予转推权限 \nERROR_INVALID_PARAMETER| 10053| 参数错误| 请检查操作的参数是否合法 \nERROR_INVALID_STATE| 21002| 状态异常| 请检查房间状态,加入房间后才可以创建转推任务 \nERROR_NETWORK_TIMEOUT| 21004| 操作超时| 请重新尝试操作 \nERROR_FATAL| 21005| 服务端错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \nERROR_LIVE_STREAMING_CLOSED| 21009| 转推任务已关闭| 通常服务端禁播或者直播流异常断开会回调此错误 \n \n# 跨房媒体转发相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_RELAY_TOKEN_ERROR| 24000| Token 验证失败| 请确认 Token 签算是否正确 \nERROR_INVALID_CLIENT_MODE| 24001| 使用场景不符| 请切换到互动直播场景 \nERROR_INVALID_CLIENT_ROLE| 24002| 用户角色不符| 请根据当前场景切换到指定角色再进行操作 \n \n# 日志上传相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_FETCH_TOKEN| 25001| 获取 token 失败| 请检查网络是否联通,并重新上传 \nERROR_READ_FILE| 25002| 读取日志文件失败| 当前日志文件不可用,需重新复现场景并上传 \nERROR_INVALID_DIR| 25003| 非法日志文件存储路径| 检查日志文件存储路径的合法性以及是否拥有该路径存储空间的访问权限 \nERROR_NETWORK_TIMEOUT| 21004| 操作超时| 保证网络情况良好的情况下,尝试重新操作 \n其他| 无| 其他错误,可参考[上传错误码](https://developer.qiniu.com/insight/5256/the-error)文档|\n根据对应的错误码处理建议处理 \n \n# 音视频本地录制相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_RECORD_FORMAT_FAILED| 40001| 封装格式操作失败| 请检查传入的文件地址 \nERROR_RECORD_STREAM_FAILED| 40002| 流信息操作失败| \nERROR_RECORD_WRITE_FAILED| 40003| 录制过程中写入失败| 请检查数据源 \nERROR_RECORD_RESAMPLE_FAILED| 40004| 录制过程中重采样操作失败| 内部错误 \nERROR_RECORD_NO_TRACK| 40005| 没有可录制的流(采集中断或远端取消发布中断超过 5s)| 检查输入的 track \nERROR_RECORD_CONFIG_CHANGED| 40006| 录制源配置被改变| 检查是否改变了 track\n相关配置,视频需确保开启了保持分辨率的配置 \nERROR_RECORD_OUT_OF_MEMORY| 40007| 存储空间不足| 请确认存储空间大小 \nERROR_RECORD_SCALE_FAILED| 40008| 录制过程中缩放操作失败| 内部错误 \n \n# 播放器相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_PLAYER_OPEN_FILE_FAILED| 50001| 打开文件失败| 请检查传入的文件地址 \nERROR_PLAYER_DECODER_FAILED| 50002| 解码失败| 请检查视频文件格式是否支持 \nERROR_PLAYER_SEEK_FAILED| 50003| seek 失败| 请确认文件是否支持 seek \nERROR_PLAYER_INVALID_STATE| 50004| 无效的播放状态| 请检查当前播放器状态 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频迁移指南"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Android >迁移指南\n\n# 迁移指南\n\n最近更新时间: 2023-04-21 12:56:19\n\nQNRTC Android SDK v4.x 是基于 v3.x 版本开发的全量重构版本,简化了接口调用逻辑,提高了接口的易用性,提供了更友好的事件监听机制。\n\n> * **由于 QNRTC Android SDK v4.x 向下不兼容**\n> ,因此,如果您是老版本用户并希望升级到最新版本以获得更好的用户体验,可参考本文提供的升级指南进行迁版本升级。\n> * 老版本文档可查看 [3.x 及之前版本的相关文档](https://doc.qnsdk.com/rtn/android/)。\n>\n\n# 改动简介\n\n4.x 版本优化了 SDK 接口调用逻辑,主要改动如下:\n\n## 优化实时音视频管理方式\n\n在 4.x 版本 SDK 中,我们提供了 [QNRTC](https://developer.qiniu.com/rtc/api/8732/QNRTC) 和\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient) 两个类来替代\n`QNRTCEnv` 和 `QNRTCEngine` 来进行 SDK\n的初始化、[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 的创建以及房间的管理等操作。其中:\n\n * [QNRTC](https://developer.qiniu.com/rtc/api/8732/QNRTC) 主要负责处理 SDK 的初始化以及本地音视频 Track 的创建采集等房间无关的操作。\n * [QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient) 主要负责处理房间的加入、离开,音视频 Track 的发布、订阅等房间交互相关的操作。\n\n上述管理方式的改动将影响到 SDK 的主要交互流程,若您需要升级,可以参考当前使用指南部分的核心场景使用姿势,分模块进行更新。\n\n## 优化音视频 Track 的定义及使用方式\n\n区别于 3.x 版本所有 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 均使用 `QNTrackInfo`,在 4.x 版本 SDK 中,我们细化了音视频 Track\n的分类,基于不同类型的 Track 提供了不同的控制接口,新版本的 Track 对本地 Track 和远端 Track 做了区分,继承结构定义如下:\n\n * [QNTrack](https://developer.qiniu.com/rtc/api/8693/QNTrack)\n * [QNLocalTrack](https://developer.qiniu.com/rtc/api/8662/QNLocalTrack)\n * [QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8660/QNLocalAudioTrack)\n * [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack)\n * [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8646/QNCustomAudioTrack)\n * [QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8663/QNLocalVideoTrack)\n * [QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack)\n * [QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8649/QNCustomVideoTrack)\n * [QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/8687/QNScreenVideoTrack)\n * [QNRemoteTrack](https://developer.qiniu.com/rtc/api/8676/QNRemoteTrack)\n * [QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/8674/QNRemoteAudioTrack)\n * [QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/8680/QNRemoteVideoTrack)\n\n> 注意:本地仅支持创建一路音频 Track,重复创建音频 Track 将会返回 null。\n\n4.x 版本除了对音视频 Track 的结构进行了调整,还将部分 Track 的操作接口从 `QNRTCEngine` 移到了 Track\n上,包括采集、渲染、美颜以及音视频回调监听的设置等。更详细接口定义请参考对应的 API 文档。\n\n## 优化事件监听接口\n\nv4.x 细化了不同场景下的事件监听,移除了 `QNRTCEngineEventListener` 回调监听。新版本事件监听定义如下:\n\n * [QNRTCEventListener:](https://developer.qiniu.com/rtc/api/8685/QNRTCEventListener) 核心回调接口,定义了设备相关的回调事件,如音频路由改变等\n * [QNClientEventListener:](https://developer.qiniu.com/rtc/api/8643/QNClientEventListener) 核心回调接口,定义了房间相关的回调事件,包括房间连接状态、用户加入离开状态等\n * [QNCameraEventListener:](https://developer.qiniu.com/rtc/api/8637/QNCameraEventListener) 摄像头状态回调接口,监听摄像头成功采集、错误等事件\n * [QNVideoFrameListener:](https://developer.qiniu.com/rtc/api/8704/QNVideoFrameListener) 视频数据帧回调接口\n * [QNAudioFrameListener:](https://developer.qiniu.com/rtc/api/8630/QNAudioFrameListener) 音频数据帧回调接口\n * [QNNetworkQualityListener:](https://developer.qiniu.com/rtc/api/8671/QNNetworkQualityListener) 本地网络状态监听接口,定义了网络质量改变的回调事件\n * [QNLiveStreamingListener:](https://developer.qiniu.com/rtc/api/8658/QNLiveStreamingListener) CDN 转推相关回调接口,监听任务转推成功、合流布局更新等事件\n * [QNAudioMusicMixerListener:](https://developer.qiniu.com/rtc/api/11919/QNAudioMusicMixerListener) 混音相关回调接口,监听混音状态、进度等事件\n * [QNTrackInfoChangedListener:](https://developer.qiniu.com/rtc/api/8820/QNTrackInfoChangedListener) 音视频 Track 信息变化监听接口,监听大小流切换、Track 静默状态改变等事件\n\n# 核心步骤迁移详解\n\n为了更方便您的版本迁移,本部分详细介绍了新老版本针对通话核心步骤的不同处理方式。\n\n## 初始化\n\n3.x 及之前的版本,初始化操作需要同时调用 `QNRTCEnv` 和 `QNRTCEngine` 的相关方法,示例代码如下:\n\n \n \n QNRTCEnv.init(getApplicationContext()); // 初始化 SDK 运行环境,建议在 Application 中调用\n QNRTCSetting setting = new QNRTCSetting(); // 创建并初始化 SDK 相关配置\n mEngine = QNRTCEngine.createEngine(getApplicationContext(), setting, new QNRTCEngineEventListener()); // 创建 QNRTCEngine 对象\n \n\n4.x 版本,初始化操作仅需通过 [QNRTC](https://developer.qiniu.com/rtc/api/8732/QNRTC)\n即可实现,示例代码如下:\n\n \n \n QNRTCSetting setting = new QNRTCSetting(); // 创建并初始化 SDK 相关配置\n QNRTC.init(this, setting, new QNRTCEventListener()); // 初始化\n \n\n实现差异:\n\n * 4.x 版本 SDK 移除了 `QNRTCEnv.init` 的操作,仅需通过 [QNRTC.init](https://developer.qiniu.com/rtc/api/8732/QNRTC#init%5B1/2%5D) 即可完成初始化操作。\n\n更详细的 4.x\n版本初始化使用方式可参考[初始化使用指南](https://developer.qiniu.com/rtc/development_guidelines/8727/initialization-\nandroid)\n\n## 加入房间\n\n3.x 及之前的版本,通过 `QNRTCEngine.joinRoom` 的方式加入房间,示例代码如下:\n\n \n \n mEngine.joinRoom(mRoomToken); // 加入房间\n \n // 加入房间成功后会触发如下回调\n interface QNRTCEngineEventListener {\n @Override\n public void onRoomStateChanged(QNRoomState state) {\n if (state == QNRoomState.CONNECTED) {\n // 成功加入房间\n }\n }\n }\n \n\n4.x 版本加入房间首先需要创建\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient) 对象,再通过\n[QNRTCClient.join](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#join%5B1/2%5D)\n的方式加入房间,示例代码如下:\n\n \n \n mClient = QNRTC.createClient(new QNClientEventListener()); // 创建 QNRTCClient 对象,并设置房间事件监听函数\n mClient.join(mRoomToken); // 加入房间\n \n // 加入房间成功后会触发如下回调\n interface QNClientEventListener {\n @Override\n public void onConnectionStateChanged(QNConnectionState state, @Nullable QNConnectionDisconnectedInfo info) {\n if (state == QNConnectionState.CONNECTED) {\n // 成功加入房间\n }\n }\n }\n \n\n实现差异:\n\n * 4.x 版本移除了 `QNRTCEngine` 的接口调用,使用 [QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient) 进行房间的相关操作\n * 4.x 版本房间连接状态监听回调改为 `QNClientEventListener.onConnectionStateChanged`,监听事件包括加入房间成功、失败以及成功离开房间等\n\n更详细的 4.x\n版本房间管理使用方式可参考[房间管理使用指南](https://developer.qiniu.com/rtc/development_guidelines/8768/room-\nmanagement-android)\n\n## 创建本地 Track\n\n3.x 及之前的版本,通过 `QNRTCEngine` 创建本地\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track),示例代码如下:\n\n \n \n // 创建本地音频 Track\n mLocalAudioTrack = mEngine.createTrackInfoBuilder()\n .setSourceType(QNSourceType.AUDIO)\n .create();\n \n // 创建本地 Camera 视频 Track\n mLocalVideoTrack = mEngine.createTrackInfoBuilder()\n .setSourceType(QNSourceType.VIDEO_CAMERA)\n .setTag(UserTrackView.TAG_CAMERA)\n .setVideoPreviewFormat(new QNVideoFormat(videoWidth, videoHeight, fps)) // 设置采集参数,不设置采用 QNRTCSetting 的采集配置\n .setVideoEncodeFormat(new QNVideoFormat(videoWidth, videoHeight, fps)) // 设置编码参数,不设置采用 QNRTCSetting 的编码配置\n .create();\n \n\n4.x 版本通过 [QNRTC](https://developer.qiniu.com/rtc/api/8732/QNRTC) 创建本地\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track),示例代码如下:\n\n \n \n // 创建本地音频 Track\n mMicrophoneAudioTrack = QNRTC.createMicrophoneAudioTrack();\n \n // 创建本地 Camera 视频 Track\n QNCameraVideoTrackConfig cameraVideoTrackConfig = new QNCameraVideoTrackConfig(\"TAG_CAMERA\")\n .setVideoCaptureConfig(QNVideoCaptureConfigPreset.CAPTURE_640x480)\n .setVideoEncoderConfig(new QNVideoEncoderConfig(encoderW, encoderH, encoderFPS, encoderBitrate))\n mCameraVideoTrack = QNRTC.createCameraVideoTrack(cameraVideoTrackConfig);\n \n\n实现差异:\n\n * 4.x 版本移除了 `QNRTCEngine` 创建 Track 的接口,改用 [QNRTC](https://developer.qiniu.com/rtc/api/8732/QNRTC) 相关接口创建\n * 4.x 版本 Track 相关的配置通过 [QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/api/8642/QNCameraVideoTrackConfig) 或者 [QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/api/8668/QNMicrophoneAudioTrackConfig) 等类似 Config 实现,创建时不传该参数则使用 SDK 提供的默认配置。3.x 版本需要在 `QNTrackInfoBuilder` 中传入,不传则使用 `QNRTCSetting` 中的配置。\n\n更详细的 4.x\n版本音视频采集使用方式可参考[音视频采集使用指南](https://developer.qiniu.com/rtc/development_guidelines/8767/audio-\nand-video-collection-android)\n\n## Track 的使用\n\n3.x 及之前的版本对 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的大部分操作都由 `QNRTCEngine` 来实现,这里以部分功能举例,示例代码如下:\n\n \n \n // 开启 Camera Track 内置美颜并设置美颜参数\n QNBeautySetting beautySetting = new QNBeautySetting(0.5f, 0.5f, 0.5f); // 美颜参数配置类\n beautySetting.setEnable(true); // 开启美颜\n mEngine.setBeauty(beautySetting); // 设置美颜参数\n \n mEngine.startCapture(); // 开启 Camera Track 采集\n mEngine.stopCapture(); // 停止 Camera Track 采集\n \n // 静默本地 Track\n mLocalAudioTrack.setMuted(true); // 设置静默状态\n mEngine.muteTracks(Collections.singletonList(mLocalAudioTrack)); // 更新静默状态\n \n mEngine.setLocalAudioRecordVolume(1.0f); // 设置本地音频采集音量\n \n\n4.x 版本对 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的操作都由对应的 Track 来实现,示例代码如下:\n\n \n \n // 开启 Camera Track 内置美颜并设置美颜参数\n QNBeautySetting beautySetting = new QNBeautySetting(0.5f, 0.5f, 0.5f); // 美颜参数配置类\n beautySetting.setEnable(true); // 开启美颜\n mCameraVideoTrack.setBeauty(mBeautySetting); // 设置美颜参数\n \n mCameraVideoTrack.startCapture(); // 开启 Camera Track 采集\n mCameraVideoTrack.stopCapture(); // 停止 Camera Track 采集\n \n mMicrophoneAudioTrack.setMuted(true); // 静默本地 Track\n \n mMicrophoneAudioTrack.setVolume(1.0f); // 设置本地音频采集音量\n \n\n实现差异:\n\n * 4.x 版本将 Track 相关操作接口都移交给对应的 Track 来实现,移除了 `QNRTCEngine` 的相关调用\n\n> 上述示例代码仅展示了部分功能的示例,更多 Track 相关的接口使用请参考对应的 Track 接口文档\n\n## 发布本地 Track\n\n3.x 及之前的版本发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n // 发布本地 Track\n mEngine.publishTracks(mLocalTrackList);\n \n // 发布成功后,会触发 QNRTCEngineEventListener.onLocalPublished 回调\n interface QNRTCEngineEventListener {\n @Override\n public void onLocalPublished(List<QNTrackInfo> trackInfoList) {\n // 回调发布成功的 Track 列表\n }\n }\n \n\n4.x 版本发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n // 发布本地 Track\n mClient.publish(new QNPublishResultCallback() {\n @Override\n public void onPublished() {\n // Track 发布成功\n }\n \n @Override\n public void onError(int errorCode, String errorMessage) {\n // Track 发布失败\n }\n }, mCameraVideoTrack, mMicrophoneAudioTrack);\n \n\n实现差异:\n\n * 4.x 版本通过 [QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#publish%5B1/4%5D) 来实现本地 Track 的发布,移除了 `QNRTCEngine` 的相关调用\n * 4.x 版本发布结果回调改为了 [QNPublishResultCallback](https://developer.qiniu.com/rtc/api/8673/QNPublishResultCallback),可在 [QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#publish%5B3/4%5D) 中传入,移除了 `QNRTCEngineEventListener.onLocalPublished` 回调\n\n更详细的 4.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-\nand-subscribe-android)\n\n## 订阅远端 Track\n\n3.x 及之前的版本订阅 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n mEngine.setAutoSubscribe(true); // 设置是否自动订阅远端 track,默认开启\n mEngine.subscribeTracks(trackList); // 手动订阅场景下,订阅远端 Track\n \n // 订阅成功后,会触发 QNRTCEngineEventListener.onSubscribed 回调\n interface QNRTCEngineEventListener {\n @Override\n public void onSubscribed(String remoteUserId, List<QNTrackInfo> trackInfoList) {\n // 回调订阅成功的 Track 列表\n }\n }\n \n\n4.x 版本订阅 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n mClient.setAutoSubscribe(true); // 设置是否自动订阅远端 track,默认开启\n mClient.subscribe(trackList); // 手动订阅场景下,订阅远端 track,支持可变参数\n \n // 订阅成功后,会触发 QNClientEventListener.onSubscribed 回调\n interface QNClientEventListener {\n @Override\n public void onSubscribed(String remoteUserID, List<QNRemoteAudioTrack> remoteAudioTracks, List<QNRemoteVideoTrack> remoteVideoTracks) {\n // 回调订阅成功的 Track 列表\n }\n }\n \n\n实现差异:\n\n * 4.x 版本通过 [QNRTCClient.subscribe](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#subscribe%5B1/2%5D) 来实现对 Track 的订阅,移除了 `QNRTCEngine` 的相关调用\n * 4.x 版本订阅结果通过 [QNClientEventListener.onSubscribed](https://developer.qiniu.com/rtc/api/8643/QNClientEventListener#onSubscribed) 回调,移除了 `QNRTCEngineEventListener` 相关的回调\n\n更详细的 4.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/8769/publish-\nand-subscribe-android)\n\n## CDN 转推\n\n3.x 及之前的版本 CDN 转推通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n // 创建并配置单路转推任务,配置步骤省略\n QNForwardJob forwardJob = new QNForwardJob();\n mEngine.createForwardJob(forwardJob); // 开始单路转推任务\n mEngine.stopForwardJob(forwardJob.getForwardJobId()); // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n QNMergeJob mergeJob = new QNMergeJob();\n mEngine.createMergeJob(mergeJob); // 开始合流转推任务\n mEngine.setMergeStreamLayouts(addedTrackOptions, mergeJob.getMergeJobId()); // 更新合流布局\n mEngine.removeMergeStreamLayouts(removedTrackOptions, mergeJob.getMergeJobId()); // 移除合流布局\n mEngine.stopMergeStream(mergeJob.getMergeJobId()); // 停止合流转推任务\n \n // 创建成功后会触发 QNRTCEngineEventListener 的相关回调\n interface QNRTCEngineEventListener {\n @Override\n public void onCreateForwardJobSuccess(String forwardJobId) {\n // 回调创建成功的单路转推 job id\n }\n \n @Override\n public void onCreateMergeJobSuccess(String mergeJobId) {\n // 回调创建成功的合流转推 job id\n }\n }\n \n\n4.x 版本 CDN 转推通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n // 设置 CDN 转推状态监听\n mClient.setLiveStreamingListener(new QNLiveStreamingListener() {\n @Override\n public void onStarted(String streamID) {\n // 对应 streamID 的转推任务开始转推\n }\n \n @Override\n public void onStopped(String streamID) {\n // 对应 streamID 的转推任务已停止转推\n }\n \n @Override\n public void onTranscodingTracksUpdated(String streamID) {\n // 合流布局更改时触发此回调\n }\n \n @Override\n public void onError(String streamID, QNLiveStreamingErrorInfo errorInfo) {\n // 转推任务出错时触发此回调\n }\n };)\n \n // 创建并配置单路转推任务,配置步骤省略\n QNDirectLiveStreamingConfig directLiveStreamingConfig = new QNDirectLiveStreamingConfig();\n mClient.startLiveStreaming(directLiveStreamingConfig); // 开始单路转推任务\n mClient.stopLiveStreaming(directLiveStreamingConfig); // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n QNTranscodingLiveStreamingConfig transcodingLiveStreamingConfig = new QNTranscodingLiveStreamingConfig();\n mClient.startLiveStreaming(transcodingLiveStreamingConfig); // 开始合流转推任务\n mClient.setTranscodingLiveStreamingTracks(transcodingLiveStreamingConfig.getStreamID(), transcodingTracks); // 更新合流布局\n mClient.removeTranscodingLiveStreamingTracks(transcodingLiveStreamingConfig.getStreamID(), transcodingTracks); // 移除合流布局\n mClient.stopLiveStreaming(transcodingLiveStreamingConfig); // 停止合流转推任务\n \n\n实现差异:\n\n * 4.x 版本通过 [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8651/QNDirectLiveStreamingConfig) 代替 `QNForwardJob` 实现单路转推的配置;通过 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8696/QNTranscodingLiveStreamingConfig) 代替 `QNMergeJob` 实现合流转推的配置;通过 [QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack) 代替 `QNMergeTrackOption` 实现合流布局的控制\n * 4.x 版本通过 [QNLiveStreamingListener](https://developer.qiniu.com/rtc/api/8658/QNLiveStreamingListener) 代替 `QNRTCEngineEventListener` 相关方法来实现 CDN 转推状态的监听\n\n更详细的 4.x 版本 CDN 转推使用方式可参考 [CDN\n转推使用指南](https://developer.qiniu.com/rtc/development_guidelines/8770/turn-the-\ncdn-push-android)\n\n## 混音\n\n3.x 及之前的版本混音通过 `QNAudioMixingManager` 来实现,示例代码如下:\n\n \n \n QNAudioMixingManager audioMixingManager = mEngine.getAudioMusicMixingManager(); // 获取混音控制器\n audioMixingManager.setAudioMixingListener(new QNAudioMixingListener()); // 设置混音状态监听\n audioMixingManager.startAudioMixing(\"filePath\", 0); // 开始混音\n audioMixingManager.pauseAudioMixing(); // 暂停混音\n audioMixingManager.resumeAudioMixing(); // 恢复混音\n audioMixingManager.stopAudioMixing(); // 停止混音\n \n\n4.x 版本混音通过\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer)\n来实现,示例代码如下:\n\n \n \n QNAudioMusicMixer audioMixer = mMicrophoneAudioTrack.createAudioMusicMixer(filePath, new QNAudioMusicMixerListener()); // 创建混音控制器\n audioMixer.start(); // 开始混音\n audioMixer.pause(); // 暂停混音\n audioMixer.resume(); // 恢复混音\n audioMixer.stop(); // 停止混音\n \n\n实现差异:\n\n * 4.x 版本使用 [QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11921/QNAudioMusicMixer) 控制混音,创建方式通过 [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8667/QNMicrophoneAudioTrack) 来实现,移除了 `QNRTCEngine` 相关接口和 `QNAudioMixingManager` 的状态监听\n * 4.x 版本混音回调使用 [QNAudioMusicMixerListener](https://developer.qiniu.com/rtc/api/11919/QNAudioMusicMixerListener) 来实现,移除了 `QNAudioMixingListener`\n\n更详细的 4.x\n版本混音使用方式可参考[背景音乐混音使用指南](https://developer.qiniu.com/rtc/development_guidelines/8771/background-\nmusic-mix-android)\n\n## 离开房间\n\n3.x 及之前的版本离开房间通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n mEngine.leaveRoom(); // 离开房间\n \n\n4.x 版本离开房间通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8684/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n mClient.leave(); // 离开房间\n \n\n实现差异:\n\n * 4.x 版本通过 [QNRTCClient.leave](https://developer.qiniu.com/rtc/api/8684/QNRTCClient#leave) 来实现离开房间的操作,移除了 `QNRTCEngine` 的相关调用\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频媒体播放器"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >媒体播放器\n\n# 媒体播放器\n\n最近更新时间: 2024-08-16 17:43:23\n\n本文主要介绍媒体播放器的使用场景。\n\n> * v6.4.0 版本开始支持使用\n> [QNMediaPlayer](https://developer.qiniu.com/rtc/api/12775/QNMediaPlayer-iOS)\n> 媒体播放器\n> * 支持播放格式:mp4、flv、m3u8、wav、flac、opus、mp3、aif、m4s 等格式\n> * 支持将播放音视频流发布到房间内\n> * 解决房间内,因为硬件回音消除,导致媒体播放音量被抑制的问题\n>\n\n使用方式如下:\n\n# 创建 QNMediaPlayer\n\nSDK 可以通过\n[QNRTC.createMediaPlayer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createMediaPlayer) 来创建\n[QNMediaPlayer](https://developer.qiniu.com/rtc/api/12775/QNMediaPlayer-iOS)\n对象\n\n \n \n QNMediaPlayer *mediaPlayer = [QNRTC createMediaPlayer];\n mediaPlayer.delegate = self;\n \n\n其中,[QNMediaPlayerDelegate](https://developer.qiniu.com/rtc/api/12780/QNMediaPlayerDelegate-\niOS) 为媒体播放器回调代理,回调方法定义如下:\n\n \n \n /**\n * 状态发生变化的回调\n *\n * @param state 播放状态\n * @see QNPlayerState\n *\n * @since v6.4.0\n */\n - (void)mediaPlayer:(QNMediaPlayer *)player didPlayerStateChanged:(QNPlayerState)state;\n /** 事件变化的回调\n *\n * @param event 播放事件\n * @see QNPlayerEvent\n * @param info 事件携带的信息\n * @see QNPlayerEventInfo\n *\n * @since v6.4.0\n */\n - (void)mediaPlayer:(QNMediaPlayer *)player didPlayerEvent:(QNPlayerEvent)event eventInfo:(QNPlayerEventInfo *)info;\n /**\n * 播放进度变化的回调\n *\n * @param position 播放进度,回调频率 1s 一次,单位(ms)\n *\n * @since v6.4.0\n */\n - (void)mediaPlayer:(QNMediaPlayer *)player didPlayerPositionChanged:(NSUInteger)position;\n \n\n媒体播放器的错误码可参考[播放器相关错误码](https://developer.qiniu.com/rtc/development_guidelines/10084/rtc-\nerror-code-iOS#8)\n\n# 开始播放\n\n需要配置播放器的数据源\n\n参考代码如下:\n\n \n \n QNMediaSource *source = [[QNMediaSource alloc] init];\n source.url = @\"http://xxx.mp4\";\n int ret = mediaPlayer play:source];\n if (ret != 0) {\n NSLog(@\"stop error:%d\", ret);\n }\n \n\n# 停止播放\n\n参考代码如下:\n\n \n \n int ret = [mediaPlayer stop];\n if (ret != 0) {\n NSLog(@\"stop error:%d\", ret);\n }\n \n\n# 暂停播放\n\n参考代码如下:\n\n \n \n int ret = [mediaPlayer pause];\n if (ret != 0) {\n NSLog(@\"pause error:%d\", ret);\n }\n \n\n# 恢复播放\n\n参考代码如下:\n\n \n \n int ret = [mediaPlayer resume];\n if (ret != 0) {\n NSLog(@\"resume error:%d\", ret);\n }\n \n\n# seek\n\n参考代码如下:\n\n \n \n int ret = [mediaPlayer seek:2000];\n if (ret != 0) {\n NSLog(@\"seek error:%d\", ret);\n }\n \n\n# getDuration\n\n参考代码如下:\n\n \n \n // 获取点播文件总时间\n int duration = [mediaPlayer getDuration];\n \n\n# getMediaPlayerAudioTrack\n\n参考代码如下:\n\n \n \n // 获取 audioTrack \n QNCustomAudioTrack* audioTrack = [mediaPlayer getMediaPlayerAudioTrack];\n // 发布到房间内\n NSMutableArray* publishTracks = [[NSMutableArray alloc] init];\n [publishTracks addObject:audioTrack];\n [self.rtcClient publish:publishTracks];\n \n\n# getMediaPlayerVideoTrack\n\n参考代码如下:\n\n \n \n // 获取 videoTrack \n QNCustomVideoTrack* videoTrack = [mediaPlayer getMediaPlayerVideoTrack];\n // 发布到房间内\n NSMutableArray* publishTracks = [[NSMutableArray alloc] init];\n [publishTracks addObject:videoTrack];\n [self.rtcClient publish:publishTracks];\n \n\n# 错误码\n\nAPI 返回的错误码和通过\n[QNMediaPlayerDelegate](https://developer.qiniu.com/rtc/api/12780/QNMediaPlayerDelegate-\niOS) 的 `didPlayerEvent`\n[QNPlayerEventInfo](https://developer.qiniu.com/rtc/api/12779/QNPlayerEventInfo-\niOS) 回调拿到异步处理过程中的错误码,可查看具体错误码含义\n\n \n \n typedef NS_ENUM(NSInteger, QNMediaPlayerReasonCode) {\n /*!\n * @abstract 打开文件失败\n */\n QNMediaPlayerOpenFileFailed = 50001,\n /*!\n * @abstract 解码失败\n */\n QNMediaPlayerDecoderFailed = 50002,\n /*!\n * @abstract seek 失败\n */\n QNMediaPlayerSeekFailed = 50003,\n /*!\n * @abstract 无效的播放状态\n */\n QNMediaPlayerInvalidState = 50004\n };\n \n\n# 示例代码\n\n媒体播放器场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/MediaPlayer/MediaPlayerExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >初始化\n\n# 初始化\n\n最近更新时间: 2022-10-27 14:56:14\n\n本部分介绍了实时音视频的初始化方式及其可配置项。\n\n> 在使用 SDK 前,请务必调用\n> [QNRTC.initRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS#initRTC)\n> 方法进行 RTC 环境的初始化工作\n\n# 默认配置初始化\n\n直接使用\n[QNRTCConfiguration.defaultConfiguration](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS#defaultConfiguration) 默认配置进行初始化,示例代码如下:\n\n \n \n QNRTCConfiguration *configuration = [QNRTCConfiguration defaultConfiguration];\n \n\n若 QNRTCConfiguration 的默认配置无法满足您的场景需要,您可通过\n[QNRTCConfiguration](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS) 下的几个 init 方法进行自定义配置初始化。\n\n# 设置媒体传输方式\n\n通过调用初始化方法\n[QNRTCConfiguration.initWithPolicy[1/3]](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS#initWithPolicy%5B1/3%5D) 设置媒体传输方式,默认使用 UDP 传输。\n\n \n \n QNRTCConfiguration *configuration = [[QNRTCConfiguration alloc] initWithPolicy:QNRTCPolicyForceUDP];\n \n\n其中,媒体传输方式 [QNRTCPolicy](https://developer.qiniu.com/rtc/9257/user-guidance-\niOS/rtc/9254) 有如下几种,可根据实际情况自行选择:\n\n \n \n typedef NS_ENUM(NSUInteger, QNRTCPolicy) {\n QNRTCPolicyForceUDP = 0, // 使用 UDP\n QNRTCPolicyForceTCP, // 使用 TCP\n QNRTCPolicyPreferUDP, // 优先 UDP,不通的话自动改为 TCP\n };\n \n\n# 推流固定分辨率开关\n\n通过调用初始化方法\n[QNRTCConfiguration.initWithPolicy[2/3]](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS#initWithPolicy%5B2/3%5D) 设置是否在推流时使用固定分辨率,即编码分辨率不随网络变化而波动,默认为 NO 不开启。\n\n \n \n QNRTCConfiguration *configuration = [[QNRTCConfiguration alloc] initWithPolicy:QNRTCPolicyForceUDP maintainResolutionEnabled:NO];\n \n\n# 通话模式开关\n\n通过调用初始化方法\n[QNRTCConfiguration.initWithPolicy[3/3]](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS#initWithPolicy%5B3/3%5D) 设置是否使用通话模式,默认为 YES 开启。\n\n \n \n QNRTCConfiguration *configuration = [[QNRTCConfiguration alloc] initWithPolicy:QNRTCPolicyForceUDP maintainResolutionEnabled:NO communicationModeOn:YES];\n \n\n> 使用声卡并配戴耳机的情况下,建议关闭,可解决声卡模式不匹配带来的音频异常无效等问题\n\n**注意:关闭通话模式将直接关闭硬件回声消除,不佩戴耳机的情况下连麦,可能出现回声。**\n\n# 初始化 QNRTC\n\n在配置好\n[QNRTCConfiguration](https://developer.qiniu.com/rtc/api/8838/QNRTCConfiguration-\niOS) 后,通过 [QNRTC.initRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#initRTC) 传入。\n\n \n \n [QNRTC initRTC:configuration];\n \n\n# 销毁 QNRTC\n\n通过 [QNRTC.deinit](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS#deinit)\n销毁。在 QNRTC 使用结束后,请务必主动在 dealloc 前调用此接口来释放相应资源\n\n \n \n [QNRTC deinit];\n \n\n# 设置日志等级\n\n通过调用 [QNRTC.setLogLevel](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#setLogLevel) 设置 SDK 的日志等级,默认是\n\n \n \n [QNRTC setLogLevel:QNRTCLogLevelInfo];\n \n\n设置成功后,可以通过\n[QNRTC.enableFileLogging](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#enableFileLogging) 接口开启日志文件保存。\n\n# 设置是否将扬声器作为默认音频输出设备\n\n通过调用\n[QNRTC.setAudioRouteToSpeakerphone](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#setAudioRouteToSpeakerphone) 设置是否将扬声器作为默认音频输出设备,默认音频路由为扬声器。\n\n \n \n [QNRTC setAudioRouteToSpeakerphone:YES];\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2022-09-08 11:58:18\n\n音视频 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 为音视频交互的基本单位,本部分介绍音视频 Track 的创建及采集等功能的使用。\n\n> * 一路 Track 代表一路音频或者视频的数据\n> * SDK 支持创建并发布多路视频 Track,但是仅支持同时创建一路音频 Track,重复创建将会失败\n>\n\n# 摄像头视频 Track\n\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8640/QNCameraVideoTrack)\n为摄像头采集的本地 Track,其创建方式如下:\n\n \n \n // 初始化视频编码配置\n QNVideoEncoderConfig *config = [[QNVideoEncoderConfig alloc] initWithBitrate:2500 videoEncodeSize:CGSizeMake(720, 1280)];\n QNCameraVideoTrackConfig *cameraVideoTrackConfig = [[QNCameraVideoTrackConfig alloc] initWithSourceTag:@\"camera\" config:config multiStreamEnable:NO]; \n QNCameraVideoTrack *cameraVideoTrack = [QNRTC createCameraVideoTrackWithConfig:cameraVideoTrackConfig];\n \n\n其中,[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/11944/QNVideoEncoderConfig-\niOS) 用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等。\n\n> 注意:编码分辨率配置 `videoEncodeSize` 时,需要同步设置预览分辨率\n> `videoFormat`,保证预览分辨率的宽高大于编码分辨率的宽高,否则设置不生效。\n\n在创建好\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS) 之后,就可以通过调用 SDK 提供的相关方法进行摄像头的相关操作:\n\n## 开始/停止摄像头采集\n\n通过调用\n[QNCameraVideoTrack.startCapture](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#startCapture) 接口进行摄像头采集,通过调用\n[QNCameraVideoTrack.stopCapture](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#stopCapture) 接口停止摄像头采集,通过添加\n[QNVideoGLView](https://developer.qiniu.com/rtc/api/11950/QNVideoGLView-iOS)\n设置摄像头采集的预览视图。\n\n \n \n // 开始摄像头采集\n [cameraVideoTrack startCapture];\n // 停止摄像头采集\n [cameraVideoTrack stopCapture];\n // 设置摄像头预览视图\n QNVideoGLView *preview = [[QNVideoGLView alloc] init];\n preview.frame = CGRectMake(0, 0, 360, 640);\n [self.view addSubview:preview];\n \n\n> 注意:App 在进退前后台的过程中,进入后台需要通过调用 `stopCapture` 停止采集,回到前台调用 `startCapture` 恢复采集。\n\n## 开启/关闭预览\n\n通过调用\n[QNCameraVideoTrack.play](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#play) 接口进行预览画面的开关控制:\n\n \n \n // 开启预览\n [cameraVideoTrack play:preview];\n // 关闭预览\n [cameraVideoTrack play:nil];\n \n\n## 开启/关闭手电筒\n\n通过设置属性\n[QNCameraVideoTrack.torchOn](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#torchOn) 接口开启和关闭手电筒\n\n \n \n // 开启手电筒\n cameraVideoTrack.torchOn = YES;\n // 关闭手电筒\n cameraVideoTrack.torchOn = NO;\n \n\n## 切换摄像头\n\n通过调用\n[QNCameraVideoTrack.switchCamera](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#switchCamera) 接口进行摄像头的切换。\n\n \n \n [cameraVideoTrack switchCamera];\n \n\n## 设置缩放\n\n通过设置属性\n[QNCameraVideoTrack.videoZoomFactor](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#videoZoomFactor) 对相机采集的画面进行缩放。\n\n> 注意:设置的数值需要小于等于 `videoActiveFormat.videoMaxZoomFactor`,如果大于会设置失败\n \n \n cameraVideoTrack.videoZoomFactor = 1.0;\n \n\n## 开启/关闭镜像\n\nSDK 内提供了前置预览镜像、后置预览镜像、前置编码镜像以及后置编码镜像共四种镜像接口,通过调用对应的属性接口即可开启或关闭镜像。\n\n \n \n // 开启前置预览镜像\n cameraVideoTrack.previewMirrorFrontFacing = YES;\n // 关闭后置预览镜像\n cameraVideoTrack.previewMirrorRearFacing = NO;\n // 开启前置编码镜像\n cameraVideoTrack.encodeMirrorFrontFacing = YES;\n // 关闭后置编码镜像\n cameraVideoTrack.encodeMirrorRearFacing = NO;\n \n\n> 注意:开启了预览镜像仅仅在本地预览才会镜像,远端看还是正常的画面;编码镜像则决定了远端观看您的用户,观看时是否会有镜像效果。\n\n## 美颜\n\n通过调用\n[QNCameraVideoTrack.setBeautifyModeOn](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS#setBeautifyModeOn) 接口进行内置美颜的开关。\n\n \n \n // 打开内置美颜\n [cameraVideoTrack setBeautifyModeOn:YES];\n \n\n美颜的具体参数可以通过以下三个方法进行设置:\n\n \n \n // 设置磨皮程度为 0.5\n [cameraVideoTrack setSmoothLevel:0.5];\n // 设置美白程度为 0.5\n [cameraVideoTrack setWhiten:0.5];\n // 设置红润程度为 0.5\n [cameraVideoTrack setRedden:0.5];\n \n\n> 如需接入第三方美颜或者滤镜,可以通过\n> [QNLocalVideoTrackDelegate.didGetPixelBuffer](https://developer.qiniu.com/rtc/api/11970/QNLocalVideoTrackDelegate#didGetPixelBuffer)\n> 的视频数据回调来实现。\n\n######\n\n# 屏幕录制视频 Track\n\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/8850/QNScreenVideoTrack-\niOS) 为屏幕录制的本地 Track,使用方式如下:\n\n## 判断设备是否支持屏幕录制\n\n屏幕录制依赖 iOS 的系统版本,可通过 SDK 提供的如下接口判断是否支持:\n\n \n \n + (BOOL)isScreenRecorderAvailable;\n \n\n示例代码如下:\n\n \n \n BOOL isSupported = [QNScreenVideoTrack isScreenRecorderAvailable];\n \n\n## 创建 Screen Track\n\n在通过了屏幕录制申请后,可以通过如下方式进行录屏\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 的创建:\n\n \n \n // 初始化视频编码配置\n QNVideoEncoderConfig *config = [[QNVideoEncoderConfig alloc] initWithBitrate:600 videoEncodeSize:CGSizeMake(720, 1280)];\n QNScreenVideoTrackConfig *screenVideoTrackConfig = [[QNScreenVideoTrackConfig alloc] initWithSourceTag:@\"screen\" config:config multiStreamEnable:NO];\n QNScreenVideoTrack *screenVideoTrack = [QNRTC createScreenVideoTrackWithConfig:screenVideoTrackConfig];\n \n\n# 外部导入视频 Track\n\nSDK 外部导入视频连麦支持导入的视频数据格式有 **kCVPixelFormatType_420YpCbCr8BiPlanarFullRange** 以及\n**kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange** 两种格式的数据,使用方式如下:\n\n## 创建外部导入视频 Track\n\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8853/QNCustomVideoTrack-\niOS) 为外部数据导入视频 Track,创建方式如下:\n\n \n \n QNVideoEncoderConfig *config = [[QNVideoEncoderConfig alloc] initWithBitrate:600];\n QNCustomVideoTrackConfig *customVideoTrackConfig = [[QNCustomVideoTrackConfig alloc] initWithTag:@\"custom\" config:config];\n QNCustomVideoTrack *customVideoTrack = [QNRTC createCustomVideoTrackWithConfig:customVideoTrackConfig];\n \n\n## 数据导入\n\n### 导入 CMSampleBufferRef 数据\n\nSDK 支持导入视频数据,使用\n[QNCustomVideoTrack.pushVideoSampleBuffer](https://developer.qiniu.com/rtc/api/8853/QNCustomVideoTrack-\niOS#pushVideoSampleBuffer) 推送视频数据:\n\n \n \n [customVideoTrack pushVideoSampleBuffer:sampleBuffer];\n \n\n### 导入 CVPixelBufferRef 数据\n\nSDK 支持导入纹理数据,使用\n[QNCustomVideoTrack.pushPixelBuffer](https://developer.qiniu.com/rtc/api/8853/QNCustomVideoTrack-\niOS#pushPixelBuffer) 推送纹理数据:\n\n \n \n [customVideoTrack pushPixelBuffer:pixelBuffer];\n \n\n# 麦克风音频 Track\n\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 为麦克风采集的音频 ,如需以麦克风采集数据作为音频源,仅需创建一个\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 为麦克风采集的音频 Track 并发布即可,其创建方式如下:\n\n \n \n QNAudioQuality *audioQuality = [[QNAudioQuality alloc] initWithBitrate:64];\n QNMicrophoneAudioTrackConfig *microphoneAudioTrackConfig = [[QNMicrophoneAudioTrackConfig alloc] initWithTag:@\"microphone\" audioQuality:audioQuality];\n QNMicrophoneAudioTrack *microphoneAudioTrack = [QNRTC createMicrophoneAudioTrackWithConfig:microphoneAudioTrackConfig];\n \n\n其中,[QNAudioQuality](https://developer.qiniu.com/rtc/api/11936/QNAudioQuality-\niOS) 代表音频的质量参数,包括编码码率。\n\n> 注意:SDK 当前仅支持一路音频 Track,因此,在创建了\n> [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\n> iOS) 之后,将无法再创建\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\n> iOS) 实例。\n\n# 外部导入音频 Track\n\nSDK 外部导入音频支持的音频数据格式为:**PCM 格式,48000 采样率,16 位宽,单声道** 。 使用方式如下:\n\n## 创建外部导入音频 Track\n\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS) 为外部数据导入音频 Track,创建方式如下:\n\n \n \n QNAudioQuality *audioQuality = [[QNAudioQuality alloc] initWithBitrate:64];\n QNCustomAudioTrackConfig *customAudioTrackConfig = [[QNCustomAudioTrackConfig alloc] initWithTag:@\"custom\" audioQuality:audioQuality];\n QNCustomAudioTrack *customAudioTrack = [QNRTC createCustomAudioTrackWithConfig:customAudioTrackConfig];\n \n\n## 数据导入:\n\n可通过调用\n[QNCustomAudioTrack.pushAudioBuffer](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS#pushAudioBuffer%5B1/2%5D) 进行外部音频数据的导入,使用方式如下:\n\n \n \n [customAudioTrack pushAudioBuffer:audioBuffer];\n \n\n> 注意:SDK 当前仅支持一路音频 Track,因此,在创建了\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\n> iOS) 之后,将无法再创建\n> [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\n> iOS) 实例。\n\n# 示例代码\n\n音视频采集场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Video/CameraVideo/CameraVideoExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >房间管理\n\n# 房间管理\n\n最近更新时间: 2022-06-30 17:23:20\n\n**房间**\n是对音视频对话空间的抽象,用于隔离不同的通话过程,保障数据的安全及独立。同一房间内的用户可以互相接收对方的音视频数据。本部分介绍如何进行房间管理,获取房间信息、用户信息以及如何实现踢人等常见功能。\n\n> *\n> 加入、离开房间代表一次音视频通话的开始和结束,一次会话仅需调用一次加入、离开的操作即可,无需重复调用。加入房间后对音视频数据的发送和接收,可参考[发布和订阅](https://developer.qiniu.com/rtc/9260/publish-\n> and-subscribe-iOS)相关流程。\n> * 加入房间需要携带相应的\n> [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\n> concept#room_token),[RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-\n> rtc-basic-concept#room_token) 需通过您的服务端生成,签算方式可参考 [RoomToken\n> 签发服务](https://developer.qiniu.com/rtc/8813/roomToken)。\n>\n\n# 房间的生命周期\n\n * 当用户加入的房间不存在时,七牛后台服务会自动创建对应的房间。\n * 若房间内的所有用户都已离开,那么房间维持空状态 10s 后将会自动关闭。\n * 若房间为服务端创建,且创建后无用户进入,那么房间维持空状态 30s 后将会自动关闭。\n * 若房间内的用户由于断网等原因,30s 未向七牛后台服务通信,则该用户将被视为退出房间。\n\n# 加入房间\n\n本地通过 [QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n传入 [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#room_token) 加入房间。\n\n \n \n - (void)join:(NSString *)token;\n - (void)join:(NSString *)token userData:(NSString *)userData;\n \n\n示例代码如下:\n\n \n \n [rtcClient join:token];\n \n\n> 1. 请确保在 `QNConnectionStateDisconnected` 状态下调用该接口加入房间,否则接口调用无效\n> 2. 加入房间时根据业务需求,每个用户可通过 `userData` 携带自定义数据\n>\n\n关于 [RoomToken](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#room_token) 在服务端的生成,可查阅 [RoomToken\n签发服务](https://developer.qiniu.com/rtc/8813/roomToken)。\n\n**本地用户收到的回调:**\n\n成功加入房间后,会通过\n[QNRTCClientDelegate.didConnectionStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didConnectionStateChanged)\n回调改变后的房间状态\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didConnectionStateChanged:(QNConnectionState)state disconnectedInfo:(QNConnectionDisconnectedInfo *)info {\n \t// 当房间状态改变时会触发此回调,成功加入房间后,回调状态为 QNConnectionStateConnected\n }\n \n\n * 若加入房间成功,会回调 [QNConnectionStateConnected](https://developer.qiniu.com/rtc/9261/room-management-iOS/9254) 状态。\n * 若加入房间失败,会回调 [QNConnectionStateDisconnected](https://developer.qiniu.com/rtc/9261/room-management-iOS/9254) 状态,同时可以通过 [QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/api/8866/QNConnectionDisconnectedInfo-iOS) 获取失败的[原因](https://developer.qiniu.com/rtc/api/8866/QNConnectionDisconnectedInfo-iOS#reason)以及对应的[错误码](https://developer.qiniu.com/rtc/10084/rtc-error-code-iOS#1)\n\n**远端用户收到的回调:**\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didJoinOfUserID:(NSString *)userID userData:(NSString *)userData {\n \t// 当远端用户加入房间时会触发此回调\n }\n \n\n# 离开房间\n\n本地通过调用\n[QNRTCClient.leave](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#leave) 退出房间。\n\n \n \n - (void)leave;\n \n\n示例代码如下:\n\n \n \n [rtcClient leave];\n \n\n本地退出房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didConnectionStateChanged:(QNConnectionState)state disconnectedInfo:(QNConnectionDisconnectedInfo *)info {\n \t// 当房间状态改变时会触发此回调,成功离开房间后,回调状态为 QNConnectionStateDisconnected,QNConnectionDisconnectedInfo 回调 Reason 为 QNConnectionDisconnectedReasonLeave\n }\n \n\n**远端用户收到的回调:**\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didLeaveOfUserID:(NSString *)userID {\n \t// 当远端用户离开房间时会触发此回调\n }\n \n\n# 房间信息\n\n## 获取房间内远端用户信息\n\n本地可调用\n[QNRTCClient.getRemoteUser](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#getRemoteUser) 接口获取音视频通话房间中的指定用户。\n\n \n \n - (QNRemoteUser *)getRemoteUser:(NSString *)userID;\n \n\n本地可调用\n[QNRTCClient.remoteUserList](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#remoteUserList) 接口获取音视频通话房间中的远端用户列表。\n\n \n \n @property (nonatomic, strong, readonly) NSArray<QNRemoteUser *> *remoteUserList;\n \n\n其中,[QNRemoteUser](https://developer.qiniu.com/rtc/api/8835/QNRemoteUser-iOS)\n代表远端用户的信息,通过该对象可以获取指定 user 发布的音视频列表以及本地对其的订阅情况。\n\n## 获取房间状态信息\n\n本地可以调用\n[QNRTCClient.connectionState](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#connectionState) 接口获取音视频通话的房间状态信息。\n\n \n \n @property (nonatomic, assign, readonly) QNConnectionState connectionState;\n \n\n其中,[QNConnectionState](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNConnectionState)\n包含如下状态:\n\n \n \n typedef NS_ENUM(NSUInteger, QNConnectionState) {\n \tQNConnectionStateDisconnected = 0, // 空闲状态,初始状态或者退出后都会进入该状态\n \tQNConnectionStateConnecting, // 正在加入的状态\n \tQNConnectionStateConnected, // 已加入的状态\n \tQNConnectionStateReconnecting, // 正在重连的状态\n \tQNConnectionStateReconnected // 重连成功的状态\n };\n \n\n# 踢人\n\n## 客户端踢人\n\n客户端 SDK 未提供踢人的接口,但是踢人操作可以通过自定义消息来实现。实现步骤可参考如下:\n\n 1. 业务侧协商定义好踢人消息的格式规范\n 2. 踢人方在执行踢人操作时,向指定用户发送协商好的踢人消息\n 3. 被踢方接收到踢人消息后,主动离开当前房间\n\n示例代码参考如下:\n\n**踢人方:**\n\n踢人方发送协商好的踢人消息:\n\n \n \n [rtcClient sendMessage:@\"kickOut\" toUsers:@[user] messageId:messageId];\n \n\n其中,自定义消息的使用方式可以参考\n[QNRTCClient.sendMessage](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#sendMessage)。\n\n**被踢方:**\n\n被踢方实现\n[QNRTCClientDelegate.didReceiveMessage](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didReceiveMessage)\n回调接口来接收踢人消息,并在收到消息后主动离开房间:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didReceiveMessage:(QNMessageInfo *)message {\n \tif ([message.content equalToString:@\"kickOut\"]) {\n \t\t// 离开房间\n \t}\n }\n \n\n## 服务端踢人\n\n服务端提供了踢人的接口,详情可参考[服务端文档](https://developer.qiniu.com/rtc/api/8815/api-\nroom),当服务端执行踢人操作后,会触发被踢方\n[QQNRTCClientDelegate.didConnectionStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didConnectionStateChanged)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didConnectionStateChanged:(QNConnectionState)state disconnectedInfo:(QNConnectionDisconnectedInfo *)info {\n \tif (state == QNConnectionStateDisconnected && info != null && QNConnectionDisconnectedReasonKickedOut == info.reason) {\n \t\t// 您已被服务端踢出房间\n \t}\n }\n \n\n其中,被服务端踢出房间的场景下,[QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/api/8866/QNConnectionDisconnectedInfo-\niOS) 回调的状态为 `QNConnectionStateDisconnected`,同时\n`QNConnectionDisconnectedInfo.reason` 为\n`QNConnectionDisconnectedReasonKickedOut`。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-09-08 11:56:19\n\n本部分介绍如何实现在房间发布、订阅媒体流。\n\n> * **发布** 是指将创建好的音视频 Track\n> 对应的音视频数据推送到七牛实时音视频服务的操作,执行发布操作后,远端用户可以选择性的进行订阅观看。\n> * **订阅** 是指向七牛实时音视频服务请求拉取远端发布的音视频数据的操作。订阅后,本地即可实时的接收远端发布的音视频数据。\n> * **有别于 CDN 转推** ,发布和订阅的音视频数据将通过 UDP 协议在房间内流转,若您想要实现 RTMP 直播流分发的场景,请在音视频\n> Track 发布后,参考使用指南的 [CDN\n> 转推](https://developer.qiniu.com/rtc/development_guidelines/9262/turn-the-\n> cdn-push-iOS)进行实现。\n>\n\n# 发布 Track\n\n发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 前,需要对 Track\n进行配置和创建,详情请见[音视频采集](https://developer.qiniu.com/rtc/development_guidelines/9258/audio-\nand-video-collection-iOS),创建好 Track 后即可将该 Track 通过\n[QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#publish%5B1/2%5D) 向房间内进行发布。\n\n> 请确保在发布前已经成功加入房间,否则将发布失败。\n \n \n // 发布本地音视频 Track 数组\n [rtcClient publish:trackList];\n // 发布本地音视频 Track 数组并回调发布结果\n [rtcClient publish:trackList completeCallback:callback];\n \n\n其中,[QNPublishResultCallback](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNPublishResultCallback)\n回调了发布操作的结果通知,其接口定义如下:\n\n \n \n typedef void (^QNPublishResultCallback)(BOOL onPublished, NSError *error);\n \n\n发布 Track 失败的错误码可参考[发布 Track 相关错误码](https://developer.qiniu.com/rtc/10084/rtc-\nerror-code-iOS#2)。\n\n发布 Track 成功后,远端用户会收到\n[QNRTCClientDelegate.didUserPublishTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didUserPublishTracks)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didUserPublishTracks:(NSArray<QNRemoteTrack *> *)tracks ofUserID:(NSString *)userID;\n \n\n# 取消发布 Track\n\n调用\n[QNRTCClient.unpublish](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#unpublish) 取消发布本地媒体流。\n\n \n \n // 取消发布本地音视频 Track 数组\n [rtcClient unpublish:trackList];\n \n\n取消发布成功后,远端用户会收到\n[QNRTCClientDelegate.didUserUnpublishTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didUserUnpublishTracks)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didUserUnpublishTracks:(NSArray<QNRemoteTrack *> *)tracks ofUserID:(NSString *)userID;\n \n\n# 订阅远端 Track\n\n## 自动订阅\n\n在 v2.x.x 版本后提供了默认自动订阅的功能,用户可以通过设置\n[QNRTCClient.autoSubscribe](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#autoSubscribe) 进行对自动订阅功能的开启与关闭。\n\n \n \n // 默认为开启状态\n rtcClient.autoSubscribe = YES;\n \n\n## 手动订阅\n\n在自动订阅功能关闭时,用户可以通过调用\n[QNRTCClient.subscribe](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#subscribe) 接口订阅远端 Tracks。\n\n \n \n // 订阅远端音视频 Track 数组\n [rtcClient subscribe:trackList];\n \n\n**无论是自动订阅还是手动订阅,当成功订阅远端用户媒体流后,都会触发[QNRTCClientDelegate.didSubscribedRemoteVideoTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didSubscribedRemoteVideoTracks),回调如下:**\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID;\n \n\n成功订阅远端视频后,即可通过\n[QNRemoteVideoTrack.play](https://developer.qiniu.com/rtc/api/8858/QNRemoteVideoTrack-\niOS#play) 接口传入预先创建好的\n[QNVideoGLView](https://developer.qiniu.com/rtc/api/11950/QNVideoGLView-iOS)\n实例进行远端视频画面的渲染。\n\n示例代码如下:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID {\n dispatch_async(dispatch_get_main_queue(), ^{\n for (QNRemoteVideoTrack * videoTrack in videoTracks) {\n [videoTrack play:remoteView];\n }\n });\n }\n \n\n# 取消订阅远端 Track\n\n调用\n[QNRTCClient.unsubscribe](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#unsubscribe) 接口取消订阅远端 Track。\n\n \n \n // 取消订阅远端音视频 Track 数组\n [rtcClient unsubscribe:trackList];\n \n\n# 示例代码\n\n发布订阅场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Video/CameraVideo/CameraVideoExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >CDN 转推\n\n# CDN 转推\n\n最近更新时间: 2023-11-20 10:33:27\n\n本部分介绍了 CDN 转推的使用姿势及其应用场景。\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:**单路流直播、多路流合流直播以及两者结合可切换的直播场景** 。\n\n> CDN 转推需要配置本地或者远端的音视频 Track,因此,**调用转推接口前请务必保证已加入房间,且已发布或者订阅了相应的音视频 Track** 。\n\n下面将会对这三种场景的使用姿势进行分别说明。\n\n# 设置监听\n\n在进行 CDN 转推之前,需要实现\n[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n有关 CDN 转推的代理回调方法:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreaming:(NSString *)streamID {\n \t// 成功创建转推/合流转推任务的回调\n }\n \n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreaming:(NSString *)streamID {\n \t// 停止转推/合流转推任务的回调\n }\n \n - (void)RTCClient:(QNRTCClient *)client didTranscodingTracksUpdated:(NSString *)streamID {\n \t// 更新合流布局的回调\n }\n \n - (void)RTCClient:(QNRTCClient *)client didErrorLiveStreaming:(NSString *)streamID errorInfo:(QNLiveStreamingErrorInfo *)errorInfo {\n \t// 合流转推出错的回调\n }\n \n \n\n其中,转推任务出错时的错误信息及原因可参考\n[QNLiveStreamingErrorInfo](https://developer.qiniu.com/rtc/api/8864/QNLiveStreamingErrorInfo-\niOS)\n\n在设置好\n[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n代理并实现相应回调后,便可以基于实际业务场景进行[单路转推](https://developer.qiniu.com/rtc/quick_start/9909/the-\nrtc-basic-\nconcept#direct_streaming)或者[合流转推](https://developer.qiniu.com/rtc/quick_start/9909/the-\nrtc-basic-concept#transcoding_streaming)任务的创建和使用了。\n\n# 单路流直播场景\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n场景示意图如下:\n\n\n\n注意:如果主播有两路视频流(采集+录屏)需要合流转推,请参考[多路流合流直播场景](https://developer.qiniu.com/rtc/development_guidelines/9262/turn-\nthe-cdn-push-iOS#3)实现。\n\n该场景的主要实现步骤如下:\n\n## 创建单路转推任务\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8861/QNDirectLiveStreamingConfig-\niOS) 用于配置单路转推的相关信息,包括推流地址以及参与 CDN 转推的音视频\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track)。\n\n相关配置及创建转推任务的示例代码如下:\n\n \n \n // 创建单路转推任务配置对象\n QNDirectLiveStreamingConfig *directLiveStreamingConfig = [[QNDirectLiveStreamingConfig alloc] init];\n // 设置 stream id,该 id 为合流任务的唯一标识符\n directLiveStreamingConfig.streamID = roomName;\n // 设置推流地址\n directLiveStreamingConfig.publishUrl = @\"publish url\";\n // 设置单路流中的音频轨,仅支持一路音频的设置,重复设置会被覆盖\n directLiveStreamingConfig.audioTrack = microphoneAudioTrack;\n // 设置单路流中的视频轨,仅支持一路视频的设置,重复设置会被覆盖\n directLiveStreamingConfig.videoTrack = cameraVideoTrack;\n // 开始进行单路转推\n [rtcClient startLiveStreamingWithDirect:directLiveStreamingConfig];\n \n\n单路转推任务创建成功后,会触发\n[QNRTCClientDelegate.didStartLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStartLiveStreaming)\n回调接口:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreaming:(NSString *)streamID;\n \n\n创建成功后,就可以通过相应的播放链接拉取直播流进行观看了。\n\n> 注意:\n> [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8861/QNDirectLiveStreamingConfig-\n> iOS) 仅支持配置一路视频轨和一路音频轨,重复设置将会被覆盖。\n\n## 停止单路转推任务\n\n可以通过如下方式,调用\n[QNRTCClient.stopLiveStreamingWithDirect](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#stopLiveStreamingWithDirect) 实现单路转推任务的停止:\n\n \n \n [rtcClient stopLiveStreamingWithDirect:directLiveStreamingConfig];\n \n\n单路转推任务停止成功后,会触发\n[QNRTCClientDelegate.didStopLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStopLiveStreaming)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreaming:(NSString *)streamID;\n \n\n停止转推成功后,相应的播放链接直播流就无法观看了。\n\n# 多路流合流直播场景\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n场景示意图如下:\n\n\n\n实现该场景需要先了解下相关的配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/api/8862/QNTranscodingLiveStreamingConfig-iOS) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-iOS) 用于配置参与 CDN 合流的每一路媒体 Track 在合流画布中的位置、大小等信息。\n\n该场景的主要实现步骤如下:\n\n## 开启合流直播\n\n### 创建合流转推任务\n\n \n \n QNTranscodingLiveStreamingConfig *transcodingLiveStreamingConfig = [[QNTranscodingLiveStreamingConfig alloc] init];\n transcodingLiveStreamingConfig.streamID = streamID; // 设置 stream id,该 id 为合流任务的唯一标识符\n transcodingLiveStreamingConfig.publishUrl = @\"publish url\"; // 设置合流任务的推流地址\n transcodingLiveStreamingConfig.width = 480; // 设置合流画布的宽度\n transcodingLiveStreamingConfig.height = 848; // 设置合流画布的高度\n transcodingLiveStreamingConfig.fps = 20; // 设置合流任务的视频帧率\n transcodingLiveStreamingConfig.fillMode = QNVideoFillModePreserveAspectRatioAndFill; // 设置合流任务的默认画面填充方式\n transcodingLiveStreamingConfig.bitrateBps = 1000; // 设置合流任务的码率,单位: kbps\n \n QNTranscodingLiveStreamingImage *backgroundImage = [[QNTranscodingLiveStreamingImage alloc] init];\n backgroundImage.frame = CGRectMake(0, 0, 480, 848);\n backgroundImage.imageUrl = @\"http://xxxx\";\n \n transcodingLiveStreamingConfig.background = backgroundImage; // 设置合流画布的背景图片,仅支持 HTTP\n transcodingLiveStreamingConfig.watermarks = @[backgroundImage]; // 设置合流任务的水印\n [rtcClient startLiveStreamingWithTranscoding:transcodingLiveStreamingConfig]; // 开始转推\n \n\n合流转推任务创建成功后,会触发如下\n[QNRTCClientDelegate.didStartLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStartLiveStreaming)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreaming:(NSString *)streamID;\n \n\n此时,可以在该回调接口中设置合流布局。\n\n### 设置合流布局\n\n合流转推任务创建成功之后,就可以基于用户发布的 Track 进行合流布局的配置了。这里首先需要了解下\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-\niOS) 的概念。\n\n相关配置的示例代码如下:\n\n \n \n QNTranscodingLiveStreamingTrack *transcodingTrack = [[QNTranscodingLiveStreamingTrack alloc] init];\n transcodingTrack.trackID = trackID; // 设置待合流 Track id\n transcodingTrack.frame = CGRectMake(0, 0, 480, 848); // 设置 Track 画面在合流画面中位置的 x、y 及宽高的位置\n transcodingTrack.zOrder = 0; // 设置 Track 画面在合流画面中的层级,0 是最底层\n \n\n> 音频 Track 和视频 Track 创建合流布局的方法相同,音频 Track 对应创建的\n> [QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-\n> iOS) 只需传入\n> [trackID](https://developer.qiniu.com/rtc/8863/QNTranscodingLiveStreamingTrack-\n> iOS#trackID) 即可。\n\n其中,远端用户的 trackID 可以通过 SDK 提供的相关回调返回的\n[QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/8859/QNRemoteAudioTrack-\niOS) 和\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/8858/QNRemoteVideoTrack-\niOS) 获取:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID {\n \t// 当成功订阅远端 Track 时会触发此回调\n }\n \n\n通过调用下面的方法\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8698/QNTranscodingLiveStreamingTrack)\n更新已有 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 的布局:\n\n \n \n - (void)setTranscodingLiveStreamingID:(NSString *)streamID withTracks:(NSArray <QNTranscodingLiveStreamingTrack *> *)tracks;\n \n\n当期望取消某路合流布局时,可以通过调用\n[QNRTCClient.removeTranscodingLiveStreamingID](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#removeTranscodingLiveStreamingID) 接口实现:\n\n \n \n - (void)removeTranscodingLiveStreamingID:(NSString *)streamID withTracks:(NSArray <QNTranscodingLiveStreamingTrack *> *)tracks;\n \n\n## 停止合流直播\n\n可以通过如下方式,调用\n[QNRTCClient.stopLiveStreamingWithTranscoding](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#stopLiveStreamingWithTranscoding) 实现合流转推任务的停止\n\n \n \n [rtcClient stopLiveStreamingWithTranscoding:transcodingLiveStreamingConfig];\n \n\n合流转推任务停止成功后,会触发\n[QNRTCClientDelegate.didStopLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStopLiveStreaming)\n回调:\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreaming:(NSString *)streamID;\n \n\n# 单路流、多路流合流二者切换的场景\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们七牛直播云引入 `serialnum` 的概念,支持 `serialnum`\n决定流的优先级,值越大,优先级越高,可以帮助更好的实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8861/QNDirectLiveStreamingConfig-iOS) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8862/QNTranscodingLiveStreamingConfig-iOS) 两种任务场景推流地址需要保持一致,以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,值越大,优先级越高,便不会出现抢流的现象。也基于此,合流任务必须使用自定义合流任务,以便自定义推流地址。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,在收到合流转推任务的 [didStartLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStartLiveStreaming) 回调之后,在回调中执行 `[rtcClient stopLiveStreamingWithDirect:directLiveStreamingConfig]` 来停止单路转推任务\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,在收到单路转推任务的 [didStartLiveStreaming](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didStartLiveStreaming) 回调之后,在回调中执行 `[rtcClient stopLiveStreamingWithTranscoding:transcodingLiveStreamingConfig]` 来停止合流转推任务\n\n通过上述方式,即可实现单路流直播、多路流合流直播之间的切换,具体实现也可参照 [牛互动 Demo](https://github.com/pili-\nengineering/QNRTCLive-\niOS/blob/master/QNRTCLiveDemo/QNRTCLiveDemo/QNLiveViewController.m) 中的相关实现\n\n# 发送 SEI\n\nCDN 转推场景支持 SEI 信息的发送,设置方式如下:\n\n \n \n [self.cameraVideoTrack sendSEIWithData:@\"SEI Message\" uuid:@\"123456789\" repeatCount:@1];\n [self.caustomVideoTrack sendSEIWithData:@\"SEI Message\" uuid:@\"123456789\" repeatCount:@1];\n [self.screenVideoTrack sendSEIWithData:@\"SEI Message\" uuid:@\"123456789\" repeatCount:@1];\n \n\n> 对于单路流直播的场景,调用上述接口后,播放端即可通过使用支持 SEI 解析的播放器获取到对应的 SEI 信息。\n> 对于多路流合流直播的场景,调用上述接口后,还需在配置合流布局时,通过\n> [QNTranscodingLiveStreamingTrack.supportSEI](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-\n> iOS#supportSEI) 接口**指定允许携带 SEI 信息的视频 Track** ,才可正常推送 SEI\n> 信息。需要注意的是,一个合流任务中,仅支持一路视频 Track 携带 SEI 信息。\n\n# 注意事项\n\n * CDN 转推需要配置本地或者远端的音视频 Track,因此,**调用转推接口前请务必保证加入了房间,并且已经发布或者订阅了相应的音视频 Track**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖**\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,从 1 开始递增,值越大,优先级越高**\n\n# 示例代码\n\nCDN 转推场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-iOS/Module/CDN%20Streaming)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 直推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >CDN 直推\n\n# CDN 直推\n\n最近更新时间: 2024-01-18 17:23:53\n\n本文主要介绍单主播直推 CDN 的使用场景。\n\n在单人直播时,SDK 将主播的音视频直接推流到 CDN 分发,观众端不需要加入 RTC 房间,只需要通过播放器进行拉流播放。\n\n> * QNCDNStreamingConfig 中的 videoTrack 和 audioTrack 参数,确保在整个推流开始和结束的过程中是有效的\n>\n\n使用方式如下:\n\n# 创建 QNCDNStreamingClient\n\nQNCDNStreamingClient 为 RTMP 推流的统一管理类,通过\n[QNRTC.createCDNStreamingClient](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createCDNStreamingClient) 接口来创建\n[QNCDNStreamingClient](https://developer.qiniu.com/rtc/api/12634/QNCDNStreamingClient-\niOS) 对象\n\n \n \n QNCDNStreamingClient *streamingClient = [QNRTC createCDNStreamingClient];\n \n\n# 设置状态回调和统计信息代理\n\n将代理实现类设置给 streamingClient 的 delegate\n\n \n \n streamingClient.delegate = self;\n \n\n其中 delegate\n[QNCDNStreamingDelegate](https://developer.qiniu.com/rtc/12641/CDN%20%E7%9B%B4%E6%8E%A8/rtc/api/12635/QNCDNStreamingDelegate)\n代理回调方法定义如下:\n\n \n \n /*!\n * @abstract 推流状态回调\n *\n * @param client 推流实例\n * @param state 推流状态\n * @param code 错误码,请参考 QNErrorCode\n * @param message 描述信息\n *\n * @since v6.0.0\n */\n - (void)cdnStreamingClient:(QNCDNStreamingClient *)client didCDNStreamingConnectionStateChanged:(QNConnectionState)state\n errorCode:(int)code\n message:(NSString *)message;\n \n /*!\n * @abstract 推流统计信息回调\n *\n * @param stats 统计信息\n * @see QNCDNStreamingStats.\n *\n * @since v6.0.0\n */\n - (void)cdnStreamingClient:(QNCDNStreamingClient *)client didCDNStreamingStats:(QNCDNStreamingStats *)stats;\n \n \n\n# 开始推流\n\n开始推流之前,需要配置推流参数\n[QNCDNStreamingConfig](https://developer.qiniu.com/rtc/api/12636/QNCDNStreamingConfig-\niOS)。 通过调用 [QNCDNStreamingClient.startWithConfig] 开始推流。使用代码参考如下:\n\n \n \n // 配置推流参数\n QNCDNStreamingConfig *streamingConfig = [[QNCDNStreamingConfig alloc] init];\n streamingConfig.audioTrack = microphoneAudioTrack;\n streamingConfig.videoTrack = cameraVideoTrack;\n streamingConfig.publishUrl = @\"rtmp://host/app/stream\";\n // 开始推流\n [streamingClient startWithConfig:streamingConfig];\n \n\n# 停止推流\n\n调用 [QNCDNStreamingClient.stop] 停止推流。使用代码参考如下:\n\n \n \n // 停止推流\n [streamingClient stop];\n \n\n# 示例代码\n\nRTMP 直推 CDN 的示例代码可参考 [API-Examples-iOS](https://github.com/pili-\nengineering/QNRTC-iOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/CDN%20Streaming/CDNStreamingLive/CDNStreamingLiveExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >背景音乐混音\n\n# 背景音乐混音\n\n最近更新时间: 2023-10-20 19:44:29\n\n本文主要介绍连麦过程中添加背景音乐混音的使用场景。\n\n> * v5.0.0 版本将 `QNAudioMixer` 移除,从 v5.1.0 版本开始,请使用\n> [QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\n> iOS) 进行背景音乐的混音操作\n> * 背景音乐混音支持本地文件和在线文件,支持的音频文件格式为:aac、mp3、mp4、wav、m4r、caf、ogg、opus、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n> * 在 [QNRTC deinit] 之前,请先离开房间,再销毁 mixer 和 audioTrack 对象\n>\n\n使用方式如下:\n\n# 创建和销毁 QNAudioMusicMixer\n\nSDK 当前支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 和\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS) 的混音功能,可以通过\n[QNRTC.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createAudioMusicMixer) 来创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS) 对象,使用\n[audioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 将 audioMusicMixer 对象添加到 audioTrack 中\n\n \n \n NSString *filePath = [[NSBundle mainBundle] pathForResource:@\"music\" ofType:@\"mp3\"];\n QNAudioMusicMixer *audioMusicMixer = [QNRTC createAudioMusicMixer:filePath musicMixerDelegate:self];\n [audioTrack addAudioFilter:audioMusicMixer];\n \n\n其中,[QNAudioMusicMixerDelegate](https://developer.qiniu.com/rtc/api/11931/QNAudioMusicMixerDelegate)\n为背景音乐混音回调代理,回调方法定义如下:\n\n \n \n /*!\n * @abstract 背景音乐混音发生错误的回调\n *\n * @param audioMusicMixer 背景音乐混音实例\n *\n * @param error 错误\n *\n * @since v5.1.0\n */\n - (void)audioMusicMixer:(QNAudioMusicMixer *)audioMusicMixer didFailWithError:(NSError *)error;\n \n /*!\n * @abstract 背景音乐混音状态变化的回调\n *\n * @param audioMusicMixer 背景音乐混音实例\n *\n * @param musicMixerState 背景音乐混音回调代理\n *\n * @since v5.1.0\n */\n - (void)audioMusicMixer:(QNAudioMusicMixer *)audioMusicMixer didStateChanged:(QNAudioMusicMixerState)musicMixerState;\n \n /*!\n * @abstract 背景音乐混音当前进度的回调\n *\n * @param audioMusicMixer 背景音乐混音实例\n *\n * @param currentPosition 当前进度\n *\n * @discussion 需要注意的是这个回调在解码线程,请不要做过于耗时的操作,否则可能阻塞该线程影响音频输出或其他未知问题。\n *\n * @since v5.1.0\n */\n - (void)audioMusicMixer:(QNAudioMusicMixer *)audioMusicMixer didMixing:(int64_t)currentPosition;\n \n \n\n其中,混音状态的改变都会通过\n[QNAudioMusicMixerDelegate.didStateChanged](https://developer.qiniu.com/rtc/api/11931/QNAudioMusicMixerDelegate#didStateChanged)\n回调通知到上层。回调的监听状态可参考\n[QNAudioMusicMixerState](https://developer.qiniu.com/rtc/api/11920/QNAudioMusicMixerState)。混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/10084/rtc-\nerror-code-iOS#3)\n\n确认后续不再需要使用或者需要重新创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS),先通过\n[audioTrack.removeAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 移除 musicMixer,再通过\n[QNRTC.destroyAudioMusicMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#destroyAudioMusicMixer) 接口进行销毁,使用代码参考如下:\n\n \n \n [audioTrack removeAudioFilter:musicMixer];\n [QNRTC destroyAudioMusicMixer:musicMixer];\n \n\n# 混音控制\n\n在创建了\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS) 实例后,可以通过该实例提供的混音控制接口进行混音操作的控制,使用代码参考如下:\n\n \n \n // 开始混音,成功后会触发 didStateChanged 回调状态 QNAudioMusicMixerStateMixing\n [audioMusicMixer start];\n // 停止混音,成功后会触发 didStateChanged 回调状态 QNAudioMusicMixerStateStopped\n [audioMusicMixer stop];\n // 恢复混音,成功后会触发 didStateChanged 回调状态 QNAudioMusicMixerStateMixing\n [audioMusicMixer resume];\n // 暂停混音,成功后会触发 didStateChanged 回调状态 QNAudioMusicMixerStatePaused\n [audioMusicMixer pause];\n // 跳到指定位置进行混音,成功后回触发 didStateChanged 回调状态 QNAudioMusicMixerStateMixing\n [audioMusicMixer seekTo:position);\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS)。\n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**背景音乐混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setVolume) 接口进行配置。\n * **背景音乐混音音量** :可以通过 [QNAudioMusicMixer.setMusicVolume](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-iOS#setMusicVolume) 接口进行配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n [microphoneAudioTrack setVolume:0.5]; // 设置麦克风采集(混音)音量\n [microphoneAudioTrack setPlayingVolume:0.5]; // 设置混音后本地播放的音量\n [audioMusicMixer setMusicVolume:0.5]; // 设置背景音乐的混音音量\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS#setEarMonitorEnabled) 接口进行开启,参考代码如下:\n\n \n \n [microphoneAudioTrack setEarMonitorEnabled:YES]; // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 发布\n\n混音场景下,默认背景音乐发布到远端,即 `publishEnabled` 为 YES。可使用\n[QNAudioMusicMixer.setPublishEnabled](https://developer.qiniu.com/rtc/api/11930/QNAudioSourceMixer-\niOS#setPublishEnabled) 选择是否发布到远端,设置 `publishEnabled` 为 NO 时,仅在本地播放,不会发布到远端。\n\n参考代码如下:\n\n \n \n [audioMusicMixer setPublishEnabled:NO]; // 不发布到远端,仅在本地播放\n \n\n# 切换音乐\n\n背景音乐混音**仅支持同时混合一路背景音乐** ,若需要切换背景音乐,可通过重新调用\n[QNMicrophoneAudioTrack.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS#createAudioMusicMixer) 创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS) 实例实现。参考代码如下:\n\n \n \n // 使用 music-1 进行混音\n QNAudioMusicMixer *audioMusicMixer = [microphoneAudioTrack createAudioMusicMixer:music1FilePath musicMixerDelegate:self]; // 创建基于 music-1 的混音控制器\n [audioMusicMixer start]; // 开始 music-1 的混音\n [audioMusicMixer stop]; // 停止 music-1 的混音\n // 切换音乐到 music-2 进行混音\n audioMusicMixer = *audioMusicMixer = [microphoneAudioTrack createAudioMusicMixer:music2FilePath musicMixerDelegate:self]; // 创建基于 music-2 的混音控制器\n [audioMusicMixer start]; // 开始 music-2 的混音\n [audioMusicMixer stop]; // 停止 music-2 的混音\n \n\n# 注意事项\n\n 1. **混音** 功能会将混音音乐与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/9260/publish-and-subscribe-iOS),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用以获得更好的体验。\n 3. 加入房间后,请确保 `AVAudioSession` 的 category 类型和 mode 模式分别是 `AVAudioSessionCategoryPlayAndRecord` 和 `AVAudioSessionModeVoiceChat`,以免出现播放声音突然变小、录屏失败(报错 -5833)等非预期问题。\n\n# 示例代码\n\n背景音乐混音场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/AudioMusicMix/AudioMusicMixExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频多音效混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >多音效混音\n\n# 多音效混音\n\n最近更新时间: 2023-10-20 19:44:52\n\n本文主要介绍连麦过程中添加多重音效混音的使用场景。\n\n> * 音效混音支持本地文件和在线文件,支持的音频格式为:aac、mp3、mp4、wav、m4r、caf、ogg、opus、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n> * 在 [QNRTC deinit] 之前,请先离开房间,再销毁 mixer 和 audioTrack 对象\n>\n\n使用方式如下:\n\n# 创建和销毁 QNAudioEffectMixer\n\nSDK 当前支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 和\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS) 的多重音效混音功能,可以通过\n[QNRTC.createAudioEffectMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createAudioEffectMixer) 接口来创建\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS) 对象,使用\n[audioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 将 effectMixer 对象添加到 audioTrack 中\n\n \n \n QNAudioEffectMixer *audioEffectMixer = [QNRTC createAudioEffectMixer:self];\n [audioTrack addAudioFilter:audioEffectMixer];\n \n\n其中,[QNAudioEffectMixerDelegate](https://developer.qiniu.com/rtc/api/11929/QNAudioEffectMixerDelegate)\n为音效混音代理回调,回调方法定义如下:\n\n \n \n /*!\n * @abstract 音效混音发生错误的回调\n *\n * @param audioEffectMixer 音效混音实例\n *\n * @param error 错误\n *\n * @since v5.1.0\n */\n - (void)audioEffectMixer:(QNAudioEffectMixer *)audioEffectMixer didFailWithError:(NSError *)error;\n \n /*!\n * @abstract 音效混音某音效播放完成的回调\n *\n * @param audioEffectMixer 音效混音实例\n *\n * @param effectID 音效 ID\n *\n * @since v5.1.0\n */\n - (void)audioEffectMixer:(QNAudioEffectMixer *)audioEffectMixer didFinished:(int)effectID;\n \n\n其中,混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/10084/rtc-\nerror-code-iOS#3)\n\n确认后续不再需要使用或者需要重新创建\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS),先通过\n[audioTrack.removeAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 移除 effectMixer,再通过\n[QNRTC.destroyAudioEffectMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#destroyAudioEffectMixer) 接口进行销毁,使用代码参考如下:\n\n \n \n [audioTrack removeAudioFilter:audioEffectMixer];\n [QNRTC destroyAudioEffectMixer:audioEffectMixer];\n \n\n# 创建和销毁 QNAudioEffect\n\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11927/QNAudioEffect-iOS)\n为音效文件的配置类,可通过\n[QNAudioEffectMixer.createAudioEffectWithEffectID](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS#createAudioEffectWithEffectID) 接口进行创建,每一个音效文件都需对应一个\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11927/QNAudioEffect-iOS)\n实例,使用代码参考如下:\n\n \n \n NSString *filePath = [[NSBundle mainBundle] pathForResource:@\"effect\" ofType:@\"mp3\"];\n QNAudioEffect *audioEffect = [audioEffectMixer createAudioEffect:effectID filePath:filePath];\n \n\n确认后续不再使用某音效,可以通过\n[QNAudioEffectMixer.destroyAudioEffectWithEffectID](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS#destroyAudioEffectWithEffectID) 接口进行销毁,使用代码参考如下\n\n \n \n [audioEffectMixer destroyAudioEffectWithEffectID:effectID];\n \n\n**其中,effectID 为音效文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音效混音操作的依据,需保证唯一。**\n\n# 混音控制\n\n在创建了\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS) 音效混音控制器实例和\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11927/QNAudioEffect-iOS)\n音效文件实例后,可以通过如下接口进行音效混音操作的控制。\n\n使用代码参考如下:\n\n \n \n int effectID = [audioEffect getID];\n // 开始指定音效混音\n [audioEffectMixer start:effectID];\n // 停止指定音效混音\n [audioEffectMixer stop:effectID];\n // 恢复指定音效混音\n [audioEffectMixer resume:effectID];\n // 暂停指定音效混音\n [audioEffectMixer pause:effectID];\n // 停止所有正在混音的音效\n [audioEffectMixer stopAll];\n // 暂停所有正在混音的音效\n [audioEffectMixer pauseAll];\n // 恢复所有已经暂停混音的音效\n [audioEffectMixer resumeAll];\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS)。\n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**音效混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setVolume) 接口进行配置。\n * **音效混音音量** :可以通过 [QNAudioEffectMixer.setVolume](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-iOS#setVolume) 和 [QNAudioEffectMixer.setAllEffectsVolume](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-iOS#setAllEffectsVolume) 接口分别对指定音效和所有音效进行音量配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n [microphoneAudioTrack setVolume:0.5]; // 设置麦克风采集(混音)音量\n [microphoneAudioTrack setPlayingVolume:0.5]; // 设置混音后本地播放的音量\n int effectID = [audioEffect getID];\n [audioEffectMixer setVolume:0.5 effectID:effectID]; // 设置指定音效的混音音量\n [audioEffectMixer setAllEffectsVolume:0.5]; // 设置所有音效的混音音量\n \n\n# 发布\n\n混音场景下,默认音效全部发布到远端,即 `publishEnabled` 均为 YES。可使用\n[QNAudioEffectMixer.setPublishEnabled](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS#setPublishEnabled) 指定 `effectID` 选择是否发布到远端,设置 `publishEnabled` 为 NO\n时,仅在本地播放,不会发布到远端。\n\n参考代码如下:\n\n \n \n [audioEffectMixer setPublishEnabled:NO effectID:effectID]; // 设置指定音效的不发布到远端,仅在本地播放\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS#setEarMonitorEnabled) 接口进行开启,参考代码如下:\n\n \n \n [microphoneAudioTrack setEarMonitorEnabled:YES]; // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 注意事项\n\n 1. **混音** 功能会将混音音频与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/9260/publish-and-subscribe-iOS),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用以获得更好的体验。\n 3. 加入房间后,请确保 `AVAudioSession` 的 category 类型和 mode 模式分别是 `AVAudioSessionCategoryPlayAndRecord` 和 `AVAudioSessionModeVoiceChat`,以免出现播放声音突然变小、录屏失败(报错 -5833)等非预期问题。\n\n# 示例代码\n\n多音效混音场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/AudioEffectMix/AudioEffectMixExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音频裸数据混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >音频裸数据混音\n\n# 音频裸数据混音\n\n最近更新时间: 2023-10-20 19:49:01\n\n本文主要介绍连麦过程中添加 PCM 音频裸数据混音的使用场景。\n\n> * v5.2.0 版本开始支持使用\n> [QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-\n> iOS) 进行 PCM 裸数据的混音操作\n> * 在 [QNRTC deinit] 之前,请先离开房间,再销毁 mixer 和 audioTrack 对象\n> * PCM 混音不支持存储格式为大端的裸数据,即音频数据源的 `AudioStreamBasicDescription` 的\n> `mFormatFlags` 不能为 `kAudioFormatFlagIsBigEndian`\n>\n\n使用方式如下:\n\n# 创建和销毁 QNAudioSourceMixer\n\nSDK 当前支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 和\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS) 的混音功能,可以通过\n[QNRTC.createAudioMusicMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createAudioSourceMixer) 来创建\n[QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-\niOS) 对象,使用\n[audioTrack.addAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 将 audioSourceMixer 对象添加到 audioTrack 中\n\n \n \n QNAudioSourceMixer *audioSourceMixer = [QNRTC createAudioSourceMixer:self];\n [audioTrack addAudioFilter:audioMusicMixer];\n \n\n其中,[QNAudioSourceMixerDelegate](https://developer.qiniu.com/rtc/api/12271/QNAudioSourceMixerDelegate)\n为 PCM 混音回调代理,回调方法定义如下:\n\n \n \n /*!\n * @abstract 音源混音发生错误的回调\n *\n * @param audioSourceMixer 音源混音实例\n *\n * @param error 错误\n *\n * @since v5.2.0\n */\n - (void)audioSourceMixer:(QNAudioSourceMixer *)audioSourceMixer didFailWithError:(NSError *)error;\n \n \n\n混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/10084/rtc-\nerror-code-iOS#3)\n\n确认后续不再需要使用或者需要重新创建\n[QNAudioSourceMixer](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-\niOS),先通过\n[audioTrack.removeAudioFilter](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#addAudioFilter) 移除 sourceMixer,再通过\n[QNRTC.destroyAudioMusicMixer](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#destroyAudioSourceMixer) 接口进行销毁,使用代码参考如下:\n\n \n \n [audioTrack removeAudioFilter:sourceMixer];\n [QNRTC destroyAudioSourceMixer:sourceMixer];\n \n\n# 创建和销毁 QNAudioSource\n\n[QNAudioSource](https://developer.qiniu.com/rtc/api/12273/QNAudioSource-iOS)\n为音源配置类,支持两种构造方法:\n\n 1. [QNAudioSourceMixer.createAudioSourceWithSourceID[1/2]](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-iOS#createAudioSourceWithSourceID%5B1/2%5D):通过非阻塞模式创建 `QNAudioSource`\n 2. [QNAudioSourceMixer.createAudioSourceWithSourceID[2/2]](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-iOS#createAudioSourceWithSourceID%5B2/2%5D):通过指定阻塞模式创建 `QNAudioSource`\n\n使用代码参考如下:\n\n \n \n // 非阻塞模式\n QNAudioSource *audioSource = [audioSourceMixer createAudioSource:sourceID];\n \n // 阻塞模式\n QNAudioSource *audioSource = [audioSourceMixer createAudioSource:sourceID blockingMode:YES];\n \n\n> 阻塞模式的配置决定了 SDK 是否会阻塞数据导入的线程:\n>\n> * 非阻塞模式下,外部数据需要按照每次送入音频数据的时长间隔依次送入,或者直接使用播放器解码后的回调数据来送入,但不宜送入过快,以免丢弃过多的数据。\n> * 阻塞模式下,外部数据需要持续送入 SDK,但不宜送入太多,以免阻塞导入线程的时间过长。\n>\n\n确认后续不再使用某音源,可以通过\n[QNAudioEffectMixer.destroyAudioSourceWithSourceID](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-\niOS#destroyAudioSourceWithSourceID) 接口进行销毁,使用代码参考如下\n\n \n \n [audioSourceMixer destroyAudioSourceWithSourceID:sourceID];\n \n\n**其中,sourceID 为音源文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音源混音操作的依据,需保证唯一。**\n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:**麦克风混音音量** 、**音源混音音量** 、**本地播放音量** 。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setVolume) 接口进行配置。\n * **音源混音音量** :可以通过 [QNAudioSourceMixer.setVolume](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-iOS#setVolume) 和 [QNAudioSourceMixer.setAllSourcesVolume](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-iOS#setAllSourcesVolume) 接口分别对指定音源和所有音源进行音量配置。\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n [microphoneAudioTrack setVolume:0.5]; // 设置麦克风采集(混音)音量\n [microphoneAudioTrack setPlayingVolume:0.5]; // 设置混音后本地播放的音量\n int sourceID = [audioSource getID];\n [audioSourceMixer setVolume:0.5 sourceID:sourceID]; // 设置指定音源的混音音量\n [audioSourceMixer setAllSourcesVolume:0.5]; // 设置所有音源的混音音量\n \n\n# 数据导入\n\nPCM 裸数据导入需要对应 `sourceID` 及音频数据格式 `asbd`\n\n参考代码如下:\n\n \n \n [audioSourceMixer pushAudioBuffer:&buffer asbd:&asbd sourceID:sourceID];\n \n\n**注意:目前音频裸数据格式,还不支持`kAudioFormatFlagIsBigEndian` 大端**\n\n# 发布\n\n混音场景下,默认音源全部发布到远端,即 `publishEnabled` 均为 YES。可使用\n[QNAudioSourceMixer.setPublishEnabled](https://developer.qiniu.com/rtc/api/12270/QNAudioSourceMixer-\niOS#setPublishEnabled) 指定 `sourceID` 选择是否发布到远端,设置 `publishEnabled` 为 NO\n时,仅在本地播放,不会发布到远端。\n\n参考代码如下:\n\n \n \n [audioSourceMixer setPublishEnabled:NO sourceID:sourceID]; // 设置指定音源的不发布到远端,仅在本地播放\n \n\n# 返听\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS#setEarMonitorEnabled) 接口进行开启,参考代码如下:\n\n \n \n [microphoneAudioTrack setEarMonitorEnabled:YES]; // 开启返听\n \n\n> 为达到最佳体验,建议在**佩戴耳机** 的情况下使用该功能\n\n# 注意事项\n\n 1. **混音** 功能会将混音音频与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未[发布](https://developer.qiniu.com/rtc/development_guidelines/9260/publish-and-subscribe-iOS),则混音操作将失效。\n 2. 混音功能建议在**佩戴耳机** 的情况下使用以获得更好的体验。\n 3. 加入房间后,请确保 `AVAudioSession` 的 category 类型和 mode 模式分别是 `AVAudioSessionCategoryPlayAndRecord` 和 `AVAudioSessionModeVoiceChat`,以免出现播放声音突然变小、录屏失败(报错 -5833)等非预期问题。\n\n# 示例代码\n\n多音源混音场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/AudioSourceMix/AudioSourceMixExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >视频大小流\n\n# 视频大小流\n\n最近更新时间: 2022-09-08 11:57:13\n\n本部分介绍视频[大小流](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#multi_stream)的使用方式。\n\n# 功能介绍\n\n\n\n当用户 A 开启大小流时,会发送多个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n# 开启大小流\n\n在创建音视频 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track) 时,可以通过\n[QNCameraVideoTrackConfig.multiStreamEnable](https://developer.qiniu.com/rtc/api/8844/QNCameraVideoTrackConfig-\niOS#multiStreamEnable) 接口来启用大小流功能,以\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS) 为例,其启用方式如下:\n\n \n \n QNCameraVideoTrackConfig *cameraVideoTrackConfig = [QNCameraVideoTrackConfig defaultCameraVideoTrackConfig]; \n // 配置启用大小流\n cameraVideoTrackConfig.multiStreamEnable = YES;\n QNCameraVideoTrack *cameraVideoTrack = [QNRTC createCameraVideoTrackWithConfig:cameraVideoTrackConfig];\n \n\n开启大小流功能后,发送端可以通过获取统计信息的接口\n[QNRTCClient.getLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#getLocalVideoTrackStats) 来感知发送情况。\n\n# 订阅大小流\n\n订阅端可以通过\n[QNRemoteVideoTrack.isMultiProfileEnabled](https://developer.qiniu.com/rtc/api/8858/QNRemoteVideoTrack-\niOS#isMultiProfileEnabled) 接口判断远端用户是否发布大小流。若接口返回为 YES,则可通过\n[QNRemoteVideoTrack.setProfile](https://developer.qiniu.com/rtc/api/8858/QNRemoteVideoTrack-\niOS#setProfile) 来订阅指定的 QNTrackProfile。\n\n示例代码如下:\n\n \n \n if (remoteVideoTrack.isMultiProfileEnabled) {\n \t[remoteVideoTrack setProfile:QNTrackProfileMedium];\n }\n \n\n> **注意:setProfile 接口仅是设置预期的流等级,并不代表实际的订阅等级,若实际发送端还未发送指定等级的流,则将无法订阅到指定的\n> profile。**\n\n当订阅指定 profile 生效后,将通过回调\n[QNRemoteVideoTrackDelegate.didVideoProfileChanged](https://developer.qiniu.com/rtc/api/11947/QNRemoteVideoTrackDelegate#didVideoProfileChanged)\n告知,具体使用方式如下:\n\n \n \n - (void)remoteVideoTrack:(QNRemoteVideoTrack *)remoteVideoTrack didVideoProfileChanged:(QNTrackProfile)profile {\n \t// 当订阅的 profile 发生改变时触发,该 profile 为当前实际订阅到的 profile\n }\n \n\n# 注意事项\n\n * **开启大小流功能设置编码宽高最低为 1280 x 720**\n * **目前仅支持在发送端发布单路视频 Track 的场景下,使用大小流功能**\n * **对于开启大小流的用户,建议保证有良好的网络环境,保证多流发送质量**\n\n# 示例代码\n\n大小流场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-engineering/QNRTC-\niOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/MultiProfile/MultiProfileExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话质量统计"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >通话质量统计\n\n# 通话质量统计\n\n最近更新时间: 2023-09-05 16:04:34\n\n本文主要介绍 SDK 如何对通话过程中的网络以及音视频的质量进行监控。\n\n> 获取通话中的质量监测信息前,请确保您已经**加入了房间** 并且**已经发布或订阅了相关的音视频 Track** 。\n\n# 上下行网络质量\n\n## 获取本地上下行网络质量\n\n在**加入了房间** 并且**订阅了音视频 Track** 后,可通过\n[QNRTCClientDelegate.didNetworkQualityNotified](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didNetworkQualityNotified)\n回调来获取本地的上下行网络质量。每隔 3s 会回调一次当前的网络上下行质量信息,质量等级可参考 QNNetworkGrade。\n\n其中,质量等级是基于当前用户通话过程中的网络、丢包以及 RTT 综合评估得出的。\n\n## 获取远端上下行网络质量\n\n不同于本地上下行网络质量的监听获取方式,远端上下行网络质量需**主动调用接口获取** ,您可在需要的时候调用\n[QNRTCClient.getUserNetworkQuality](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#getUserNetworkQuality) 接口获取当前房间内所有远端用户的上下行质量信息。其中,获取到的质量等级可参考\n[QNNetworkGrade](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNNetworkGrade)。\n\n# 音频质量统计\n\n## 获取本地音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#getLocalAudioTrackStats) 接口获取当前本地的音频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/8871/QNLocalAudioTrackStats-\niOS) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nuplinkBitrate| 本地音频上行的码率,单位 bps \nuplinkRTT| 本地音频上行的网络延时,单位 ms \nuplinkLostRate| 本地音频上行的丢包率,范围 [0, 100] \n \n## 获取远端音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOSt#getRemoteAudioTrackStats) 接口获取当前远端的音频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/8868/QNRemoteAudioTrackStats-\niOS) 主要包含如下信息:\n\n属性| 描述 \n---|--- \ndownlinkBitrate| 本地拉取远端音频时下行的码率,单位 bps \ndownlinkLostRate| 本地拉取远端音频时下行的丢包率,范围 [0, 100] \nuplinkRTT| 远端音频上行的网络延时,单位 ms \nuplinkLostRate| 远端音频上行的丢包率,范围 [0, 100] \n \n# 视频质量统计\n\n## 获取本地视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOSt#getLocalVideoTrackStats) 接口获取当前本地的视频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/8870/QNLocalVideoTrackStats-\niOS) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前所统计视频的[质量等级](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/9259/multi-\nstream-iOS)文档 \nuplinkFrameRate| 本地视频上行的帧率 \nuplinkBitrate| 本地视频上行的码率,单位 bps \nuplinkRTT| 本地视频上行的网络延时,单位 ms \nuplinkLostRate| 本地视频上行的丢包率,范围 [0, 100] \nuplinkFrameWidth| 本地编码输出的视频宽度 \nuplinkFrameHeight| 本地编码输出的视频高度 \ncaptureFrameRate| 本地实际采集到的视频帧率 \ncaptureFrameWidth| 本地采集视频帧宽度 \ncaptureFrameHeight| 采集视频帧宽高度 \ntargetFrameRate| 期望的视频帧率 \ntargetFrameWidth| 期望的视频帧宽度 \ntargetFrameHeight| 期望的视频帧高度 \n \n## 获取远端视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient.getRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOSt#getRemoteVideoTrackStats) 接口获取当前远端的视频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/8867/QNRemoteVideoTrackStats-\niOS) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前订阅的视频的[质量等级](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/9259/multi-\nstream-iOS)文档 \ndownlinkFrameRate| 本地拉取远端视频时下行的帧率 \ndownlinkBitrate| 本地拉取远端视频时下行的码率,单位 bps \ndownlinkLostRate| 本地拉取远端视频时下行的丢包率,范围 [0, 100] \nuplinkRTT| 远端视频上行的网络延时,单位 ms \nuplinkLostRate| 远端视频上行的丢包率,范围 [0, 100] \nuplinkFrameWidth| 远端用户编码输出的视频宽度 \nuplinkFrameHeight| 远端用户编码输出的视频高度 \n \n# 示例代码\n\n上述已经简单介绍了质量统计信息的获取方式,相对应的示例代码可参考 [API-Examples-iOS](https://github.com/pili-\nengineering/QNRTC-iOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/ConnectQuality/ConnectQualityExample.m)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话音量监听"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >通话音量监听\n\n# 通话音量监听\n\n最近更新时间: 2022-09-08 11:45:06\n\n本文主要介绍如何通过 SDK 获取本地和远端用户在通话过程中的音量,进而判断用户是否在讲话。\n\n> 实现方式是通过周期性调用 SDK 接口获取本地及远端音频 Track 的音量值,再通过音量值来判断用户是否在讲话\n\n# 监听本地音量\n\nSDK 提供了\n[QNLocalAudioTrack.getVolumeLevel](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-\niOS#getVolumeLevel) 接口用于获取本地音频 Track 的音量。\n\n以麦克风 Track 为例,可以通过如下方式实现对本地采集音量的感知:\n\n \n \n NSTimer *timer = [NSTimer scheduledTimerWithTimeInterval:kGetVolumeLevelInterval target:self selector:@selector(updateAudioTrackVolume) userInfo:nil repeats:YES];\n \n - (void)updateAudioTrackVolume {\n float localVolumeLevel = [self.microphoneAudioTrack getVolumeLevel];\n if (localVolume >= 0.1f) {\n // 本地用户正在讲话\n }\n }\n \n\n其中,`kGetVolumeLevelInterval` 为获取音量值的时间间隔,可根据您的场景自行定义其大小\n\n# 监听远端音量\n\nSDK 提供了\n[QNRemoteAudioTrack.getVolumeLevel](https://developer.qiniu.com/rtc/api/8859/QNRemoteAudioTrack-\niOS#getVolumeLevel) 接口用于获取远端音频 Track 的音量。\n\n可以通过如下方式实现对远端音频 Track 音量的感知:\n\n \n \n NSTimer *timer = [NSTimer scheduledTimerWithTimeInterval:kGetVolumeLevelInterval target:self selector:@selector(updateAudioTrackVolume) userInfo:nil repeats:YES];\n \n - (void)updateAudioTrackVolume {\n float remoteVolumeLevel = [self.remoteAudioTrack getVolumeLevel];\n if (remoteVolume >= 0.1f) {\n // 远端用户正在讲话\n }\n }\n \n\n其中,`kGetVolumeLevelInterval` 为获取音量值的时间间隔,可根据您的场景自行定义其大小\n\n# 注意事项\n\n 1. 在安静的环境下,**获取到 0.0x 大小的数值可能为环境音的音量,是预期的现象** ,可根据需求自行决定判断用户是否讲话的音量阈值\n 2. 本地音量获取的数值会受到 [QNLocalAudioTrack.setVolume](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-iOS#setVolume) 接口的影响,在确定讲话阈值的时候需要搭配使用\n 3. 获取音量接口为主动接口,需要您启动一个定时器,进行周期性的音量获取\n\n# 示例代码\n\n上述已经简单介绍了通话音量的监听方式,相对应的示例代码可参考 [API-Examples-iOS](https://github.com/pili-\nengineering/QNRTC-iOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Audio/MicrophoneAudio/MicrophoneAudioExample.m)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频跨房媒体转发"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >跨房媒体转发\n\n# 跨房媒体转发\n\n最近更新时间: 2022-06-30 17:17:56\n\n本部分介绍跨房媒体转发的使用以及使用场景\n\n跨房媒体转发允许主播不离开自己的所在的房间,仅通过信令的操作,转发自己的音视频到其他的房间。七牛 RTC SDK\n支持同时转发多路至多个房间(具体按照设备状况以及网络状况决定)。依赖此功能,可以很方便的实现直播过程中的连麦,小班课等业务。\n\n# 名词解释\n\n场景:\n\n * [QNClientModeLive](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientMode):用于互动直播场景,可以通过设置角色来控制权限。主播可以发布和订阅音视频,观众仅能订阅音视频。\n * [QNClientModeRTC](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientMode):用于通信场景,所有人都可以发布自己的音视频,不可设置角色。\n\n角色:\n\n * [QNClientRoleBroadcaster](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientRole):主播角色,拥有发布和订阅音视频的权限。\n * [QNClientRoleAudience](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientRole):观众角色,仅有订阅音视频的权限。\n\n# 使用前注意事项\n\n**请注意当前跨房功能仅对使用场景为直播,且角色为主播的场景下才能使用。请确保加入房间前调用以下接口:**\n\n \n \n // 使用直播场景和主播角色来创建 QNRTCClient\n QNClientConfig *clientConfig = [[QNClientConfig alloc] initWithMode:QNClientModeLive role:QNClientRoleBroadcaster];\n QNRTCClient *rtcClient = [QNRTC createRTCClient:clientConfig];\n // 创建 client 后依然可以修改角色,但是无法修改场景\n [rtcClient setClientRole:QNClientRoleBroadcaster completeCallback:nil];\n \n\n对于以下几种情况:\n\n * 场景为 [QNClientModeRTC](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientMode),则必须使用 [QNClientModeLive](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientMode) 重新创建房间\n * 已加入房间,且使用场景为 [QNClientModeLive](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientMode) ,但是角色为 [QNClientRoleAudience](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientRole),则不需要退出房间,执行以下步骤即可: \n 1. 调用 `[rtcClient setClientRole:QNClientRoleBroadcaster completeCallback:callback]`\n 2. 等待 `QNClientRoleResultCallback` 返回结果 `QNClientRole` 成功切换为 [QNClientRoleBroadcaster](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNClientRole)。\n 3. 调用跨房媒体转发 API。\n\n# 开启跨房媒体转发\n\n通过\n[QNRTCClient.startRoomMediaRelay](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#startRoomMediaRelay) 接口开启跨房媒体转发,在\n[QNMediaRelayResultCallback](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayResultCallback)\n中通过字典 `state` 对应房间名 `key` 获取处理结果,具体的 `value` 值参见\n[QNMediaRelayState](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayState)。\n\n \n \n - (void)startRoomMediaRelay:(QNRoomMediaRelayConfiguration *_Nonnull)config completeCallback:(QNMediaRelayResultCallback)callback;\n \n\n其中,[QNRoomMediaRelayConfiguration](https://developer.qiniu.com/rtc/api/10143/QNRoomMediaRelayConfiguration-\niOS) 为跨房媒体转发的配置类,主要包含如下配置方法:\n\n \n \n // 源房间信息\n @property (strong, nonatomic) QNRoomMediaRelayInfo *srcRoomInfo; \n // 设置目标房间信息 \n - (BOOL)setDestRoomInfo:(QNRoomMediaRelayInfo *_Nonnull)destRoomInfo forRoomName:(NSString *_Nonnull)roomName;\n \n\n由跨房媒体转发操作触发的结果,通过如下 block 回调:\n\n \n \n /*!\n * @typedef QNMediaRelayResultCallback\n *\n * @abstract 跨房间媒体转发操作的回调\n *\n * @warning 此接口回调的是所有跨房目标房间的状态。具体每个目标房间转发状态,需要参考回调参数中目标房间对应的 QNMediaRelayState\n *\n * @param state 目标房间状态, key 为房间名, value 为状态\n *\n * @param error 操作失败的错误信息\n */\n typedef void (^QNMediaRelayResultCallback)(NSDictionary *state, NSError *error);\n \n\n**注意:跨房媒体转发操作过程中,发生错误的信息,可参见[QNMediaRelayErrorDomain](https://developer.qiniu.com/rtc/10718/media-\nrelay-iOS/rtc/9254)**\n\n示例代码如下:\n\n \n \n QNRoomMediaRelayConfiguration *config = [QNRoomMediaRelayConfiguration new];\n QNRoomMediaRelayInfo *srcRoomInfo = [QNRoomMediaRelayInfo new];\n srcRoomInfo.roomName = roomName;\n srcRoomInfo.token = token;\n // 目标房间 1\n QNRoomMediaRelayInfo *destInfo1 = [QNRoomMediaRelayInfo new];\n destInfo1.roomName = roomName1;\n destInfo1.token = token1;\n // 目标房间 2\n QNRoomMediaRelayInfo *destInfo2 = [QNRoomMediaRelayInfo new];\n destInfo2.roomName = roomName2;\n destInfo2.token = token2;\n // 源房间\n config.srcRoomInfo = srcRoomInfo;\n // 设置目标房间\n [config setdestRoomInfo:destInfo1 forRoomName:roomName1];\n [config setdestRoomInfo:destInfo2 forRoomName:roomName2];\n // 开启跨房\n [rtcClient startRoomMediaRelay:config completeCallback:^(NSDictionary *state, NSError *error) {\n if (!error) {\n NSString *str = @\"开始跨房媒体转发成功\";\n }\n }];\n \n\n# 更新跨房媒体转发\n\n通过\n[QNRTCClient.updateRoomMediaRelay](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#updateRoomMediaRelay) 接口更新跨房媒体转发,在\n[QNMediaRelayResultCallback](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayResultCallback)\n中通过字典 `state` 对应房间名 `key` 获取处理结果,具体的 `value` 值参见\n[QNMediaRelayState](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayState)。\n\n> **注意:此接口中的`config` 为全量更新,如已经开启的跨房的目标房间未被包含,则会被停止**\n \n \n - (void)updateRoomMediaRelay:(QNRoomMediaRelayConfiguration *_Nonnull)config completeCallback:(QNMediaRelayResultCallback)callback;\n \n\n示例代码如下:\n\n \n \n QNRoomMediaRelayConfiguration *config = [QNRoomMediaRelayConfiguration new];\n QNRoomMediaRelayInfo *srcRoomInfo = [QNRoomMediaRelayInfo new];\n srcRoomInfo.roomName = roomName;\n srcRoomInfo.token = token;\n // 目标房间 1\n QNRoomMediaRelayInfo *destInfo1 = [QNRoomMediaRelayInfo new];\n destInfo1.roomName = roomName1;\n destInfo1.token = token1;\n // 目标房间 2\n QNRoomMediaRelayInfo *destInfo2 = [QNRoomMediaRelayInfo new];\n destInfo2.roomName = roomName2;\n destInfo2.token = token2;\n // 设置源房间\n config.srcRoomInfo = srcRoomInfo;\n // 设置目标房间\n [config setdestRoomInfo:destInfo1 forRoomName:roomName1];\n [config setdestRoomInfo:destInfo2 forRoomName:roomName2];\n // 更新跨房\n [rtcClient updateRoomMediaRelay:config completeCallback:^(NSDictionary *state, NSError *error) {\n if (!error) {\n NSString *str = @\"开始跨房媒体转发成功\";\n }\n }];\n \n\n# 停止跨房媒体转发\n\n通过\n[QNRTCClient.stopRoomMediaRelay](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#stopRoomMediaRelay) 接口停止跨房媒体转发,所有已开启的跨房行为将被停止, 在\n[QNMediaRelayResultCallback](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayResultCallback)\n中通过字典 `state` 对应房间名 `key` 获取处理结果,具体的 `value` 值参见\n[QNMediaRelayState](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRelayState)。\n\n \n \n - (void)stopRoomMediaRelay:(QNMediaRelayResultCallback)callback;\n \n\n# 事件通知\n\n * 主动跨房的主播 A,可在 [QNRTCClientDelegate.didMediaRelayStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didMediaRelayStateChanged) 当前跨房请求的状态更新,具体状态参见 [QNMediaRelayState](https://developer.qiniu.com/rtc/9254/QNTypeDefines#QNMediaRelayState)\n * 被跨房的主播 B,当主播 A 跨房成功之后,会触发 [QNRTCClientDelegate.didJoinOfUserID](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didJoinOfUserID)、[QNRTCClientDelegate.didLeaveOfUserId](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didLeaveOfUserId) 等用户加入、离开、发布音视频等回调。\n\n# 直播连麦 pk\n\n使用跨房媒体转发方案,可以很方便的解决连麦 pk 这类场景的需求。主播 A 不再需要离开自己的房间,只需通过以下步骤即可:\n\n 1. 业务协商,主播 A 通过 `QNRTC` 自定义消息或者业务服务器长连接向主播 B 发送连麦请求,如果请求通过,则进行下一步\n 2. 主播 A 调用 [QNRTCClient.startRoomMediaRelay](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#startRoomMediaRelay),主播 B 收到主播 A 加入房间和发布音视频等一系列消息后,再使用 [QNRTCClient.setTranscodingLiveStreamingID](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#setTranscodingLiveStreamingID) 方法更新合流布局即可。\n 3. 主播 B 操作同主播 A。\n 4. 连麦结束后,各自调用 [QNRTCClient.stopRoomMediaRelay](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#stopRoomMediaRelay) 停止跨房,并调用 [QNRTCClient.removeTranscodingLiveStreamingID](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#removeTranscodingLiveStreamingID) 移除连麦布局。\n 5. 结束\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频本地录制"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >音视频本地录制\n\n# 音视频本地录制\n\n最近更新时间: 2024-06-28 16:41:07\n\n本文主要介绍连麦过程中音视频本地录制的使用场景。\n\n> * v6.2.0 版本开始支持使用\n> [QNMediaRecorder](https://developer.qiniu.com/rtc/api/12685/QNMediaRecorder-\n> iOS) 进行音视频本地录制的操作\n> * 在 [QNRTC deinit] 之前,请先停止录制\n> * 支持录制格式:wav、aac、mp4\n> * 录制保存路径可自定义,未设置则使用默认路径 App Container/Library/Caches/Pili/RecordFile\n> * 音频 Track 添加混音时,混音数据不支持参与录制保存\n>\n\n使用方式如下:\n\n# 创建 QNMediaRecorder\n\nSDK 当前支持基于\n[QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8849/QNLocalVideoTrack-\niOS) 和\n[QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-\niOS) 的录制功能,可以通过\n[QNRTC.createMediaRecorder](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS#createMediaRecorder) 来创建\n[QNMediaRecorder](https://developer.qiniu.com/rtc/api/12685/QNMediaRecorder-\niOS) 对象\n\n \n \n QNMediaRecorder *mediaRecorder = [QNRTC createMediaRecorder];\n mediaRecorder.delegate = self;\n \n\n其中,[QNMediaRecorderDelegate](https://developer.qiniu.com/rtc/api/12688/QNMediaRecorderDelegate-\niOS) 为音视频本地录制回调代理,回调方法定义如下:\n\n \n \n /*!\n * @abstract 录制信息更新回调\n *\n * @param recorder 媒体录制实例\n *\n * @param info 媒体录制完成的信息\n *\n * @since v6.2.0\n */\n - (void)mediaRecorder:(QNMediaRecorder* _Nonnull)recorder infoDidUpdated:(QNMediaRecordInfo* _Nonnull)info;\n \n /*!\n * @abstract 录制状态发生变化回调\n *\n * @warning 出现错误状态时,会自动停止录制并回调错误信息\n *\n * @param recorder 媒体录制实例\n *\n * @param state 录制状态\n *\n * @param reason 录制错误信息\n *\n * @since v6.2.0\n */\n - (void)mediaRecorder:(QNMediaRecorder* _Nonnull)recorder stateDidChanged:(QNMediaRecorderState)state reason:(QNMediaRecorderReasonCode)reason;\n \n\n音视频本地录制的错误码可参考[录制相关错误码](https://developer.qiniu.com/rtc/development_guidelines/10084/rtc-\nerror-code-iOS#7)\n\n# 开始录制\n\n需要设置录制相关配置参考如下:\n\n * **文件路径** :请确保路径完整精确到文件名和类型,存在有效且可读可写,支持 wav、aac、mp4,不设置默认保存在 App Container/Library/Caches/Pili/RecordFile。\n * **音频源** :可以设置麦克风或自定义音频,仅支持一路音频轨的设置,重复设置会被覆盖。\n * **视频源** :可以设置摄像头或自定义视频,仅支持一路视频轨的设置,重复设置会被覆盖。\n\n参考代码如下:\n\n \n \n QNLocalAudioTrack *audioInfo = [QNRTC createMicrophoneAudioTrack];\n QNLocalVideoTrack *videoInfo = [QNRTC createCameraVideoTrack];\n \n QNMediaRecorderConfig *mediaConfig = [[QNMediaRecorderConfig alloc] initWithFilePath:@\"\" localAudioTrack:audioInfo localVideoTrack:videoInfo];\n \n int result = [mediaRecorder startRecording:mediaConfig];\n if (result != 0) {\n NSLog(@\"开始录制发生错误 %ld\", result);\n }\n \n\n# 停止录制\n\n参考代码如下:\n\n \n \n int result = [mediaRecorder stopRecording];\n if (result != 0) {\n NSLog(@\"结束录制发生错误 %ld\", result);\n }\n \n\n# 错误码\n\n错误码通过\n[QNMediaRecorderDelegate](https://developer.qiniu.com/rtc/api/12688/QNMediaRecorderDelegate-\niOS) 的 `stateDidChanged`\n[QNMediaRecorderReasonCode](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNMediaRecorderReasonCode)\n回调\n\n \n \n typedef NS_ENUM(NSInteger, QNMediaRecorderReasonCode) {\n /*!\n * @abstract No error 一切正常\n */\n QNMediaRecorderReasonCodeNoError = 0,\n \n /*!\n * @abstract Format failed 封装格式操作失败\n */\n QNMediaRecorderReasonCodeFormatFailed = 40001,\n \n /*!\n * @abstract Stream failed 流信息操作失败\n */\n QNMediaRecorderReasonCodeStreamFailed = 40002,\n \n /*!\n * @abstract Write failed 录制过程中写入失败\n */\n QNMediaRecorderReasonCodeWriteFailed = 40003,\n \n /*!\n * @abstract Resample failed 录制过程中重采样操作失败\n */\n QNMediaRecorderReasonCodeResampleFailed = 40004,\n \n /*!\n * @abstract No track 没有可录制的流(采集中断或远端取消发布中断超过 5s)\n */\n QNMediaRecorderReasonCodeNoTrack = 40005,\n \n /*!\n * @abstract Config changed 录制源配置被改变\n */\n QNMediaRecorderReasonCodeConfigChanged = 40006,\n \n /*!\n * @abstract Out of memory 存储空间不足\n */\n QNMediaRecorderReasonCodeOutOfMemory = 40007,\n \n /*!\n * @abstract Scale failed 录制过程中缩放操作失败\n */\n QNMediaRecorderReasonCodeScaleFailed = 40008,\n };\n \n\n# 注意事项\n\n 1. 录制实现相关配置时,应当务必保证保存地址、Track 有效可用\n 2. 建议实现[QNMediaRecorderDelegate](https://developer.qiniu.com/rtc/api/12688/QNMediaRecorderDelegate-iOS)回调,对应实际状态做相应处理\n 3. 开始录制或停止录制时,根据返回值的结果做相应的业务处理,可避免后续非预期行为\n 4. 对自定义音视频进行录制时,应当确保音视频同步传入,否则可能存在音频录制后播放非预期的情况\n\n# 示例代码\n\n音视频本地录制场景的示例代码可参考 [API-Examples-iOS](https://github.com/pili-\nengineering/QNRTC-iOS/blob/master/QNRTC-API-Examples/Api-Examples-\niOS/Module/Other/MediaRecord/MediaRecordExample.m)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >错误码\n\n# 错误码\n\n最近更新时间: 2024-08-16 17:44:40\n\n本文主要介绍 iOS QNRTCKit SDK 相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNRTCErrorTokenError| 10001| 房间 Token 错误| 表示您提供的房间 Token 不符合七牛 Token\n签算规则,详情请参考 [RoomToken 签发服务](https://developer.qiniu.com/rtc/8813/roomToken) \nQNRTCErrorTokenExpired| 10002| 房间 Token 过期| 表示您的房间 Token 过期,需要重新生成 Token 再加入 \nQNRTCErrorUserAlreadyExist| 10022| 房间内已经有同名用户|\n后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nQNRTCErrorMediaCapNotSupport| 10054| 媒体协商失败| 表示该设备不支持指定的音视频格式,无法进行连麦的操作 \nQNRTCErrorAuthFailed| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 Token\n验证失败,建议检查签算 Token 的信息是否异常,若 Token 无误,可重新尝试加入房间 \nQNRTCErrorReconnectFailed| 21003| 房间重连失败| 表示 SDK 发生掉线,并且 30s 内无法完成有效的重连 \nQNRTCErrorFatalError| 21005| 非预期错误| 表示 RTC 当前状态异常,需要释放进行重新初始化 \n \n> **SDK 重连机制:**\n>\n> * SDK 内部会尝试不断重连,但若 30s 内无法完成有效的重连过程,则超时后的重连请求在到达 RTC 服务后会抛出\n> `QNRTCErrorReconnectFailed` 错误\n>\n\n# 发布 Track 相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNRTCErrorInvalidParameter| 10053| 非法参数| 请检查待发布 Track 是否为本地 Track,并且不为空 \nQNRTCErrorRoomStateError| 21002| 非法状态| 请检查是否已经加入房间 \nQNRTCErrorFatalError| 21005| 非预期错误| 表示 RTC 当前状态异常,需要释放进行重新初始化 \n \n# 混音相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNAudioMixErrorResampleFailed| 22001| 重采样模块创建失败| 请重新尝试混音操作 \nQNAudioMixErrorAudioNotFound| 22002| 混音源没有找到有效音轨| 请检查混音文件的合法性 \nQNAudioMixErrorIOException| 22003| 混音源文件 IO 错误| 请检查混音源文件是否存在异常 \nQNAudioMixErrorDecoderException| 22004| 系统不支持混音源中的音频类型|\n支持的音频文件格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac \nQNAudioMixErrorSeekFailed| 22005| seek 失败| 请检查是否在开始混音前执行了 Seek 操作 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNRTCErrorNoPermission| 10051| 无操作权限| 请检查用户的 Token 签算权限 \nQNRTCErrorInvalidParameter| 10053| 参数错误| 请检查操作的参数是否合法 \nQNRTCErrorRoomStateError| 21002| 状态异常| 请检查房间状态,加入房间后才可以创建转推任务 \nQNRTCErrorFatalError| 21005| 服务端错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \n \n# 跨房媒体转发相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNMediaRelayErrorTokenError| 24000| 跨房转推 Token 错误| 请检查 Token 是否可用 \nQNMediaRelayErrorAlreadyStart| 24001| 当前跨房已开始| 跨房已开始,请确认实际状态 \nQNMediaRelayErrorNotStart| 24002| 当前跨房未开始| 跨房未开始,请确认实际状态 \nQNMediaRelayErrorDestinationRoomNotExisted| 24003| 目标房间不存在| 请确认目标房间 是否存在 \nQNMediaRelayErrorPlayerInDestRoom| 24004| 已在房间内| 不可重复跨进同一房间 \nQNMediaRelayErrorStartFailed| 24005| 开始失败| 跨房失败 \nQNRTCErrorInvalidMode| 24006| 使用场景不符| 请确认实际使用场景 \nQNRTCErrorInvalidRole| 24007| 用户角色不符| 请确认实际用户角色 \n \n# 通用错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNErrorCodeNotInitialized| 30001| 没有初始化,用于 SDK 或者对象没有初始化的情况下,调用了 API|\n请检查初始化是否正常 \nQNErrorCodeUnauthorizedDomain| 30002| 未授权的域名,推流地址的域名,未通过后台审核| 请在后台确认审核状态 \nQNErrorCodeDuplicatedOperation| 30003| 重复调用 API,可能会触发下面错误| 请确认调用逻辑 \n \n# 录制相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNMediaRecorderReasonCodeFormatFailed| 40001| 封装格式操作失败| 请检查传入的文件地址 \nQNMediaRecorderReasonCodeStreamFailed| 40002| 流信息操作失败| \nQNMediaRecorderReasonCodeWriteFailed| 40003| 录制过程中写入失败| 请检查数据源 \nQNMediaRecorderReasonCodeResampleFailed| 40004| 录制过程中重采样操作失败| 内部错误 \nQNMediaRecorderReasonCodeNoTrack| 40005| 没有可录制的流(采集中断或远端取消发布中断超过 5s)| 检查输入的\ntrack \nQNMediaRecorderReasonCodeConfigChanged| 40006| 录制源配置被改变| 检查是否改变了 track\n相关配置,视频需确保开启了保持分辨率的配置 \nQNMediaRecorderReasonCodeOutOfMemory| 40007| 存储空间不足| 请确认存储空间大小 \nQNMediaRecorderReasonCodeScaleFailed| 40008| 录制过程中缩放操作失败| 内部错误 \n \n# 播放器相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNMediaPlayerOpenFileFailed| 50001| 打开文件失败| 请检查传入的文件地址 \nQNMediaPlayerDecoderFailed| 50002| 解码失败| 请检查视频文件格式是否支持 \nQNMediaPlayerSeekFailed| 50003| seek 失败| 请确认文件是否支持 seek \nQNMediaPlayerInvalidState| 50004| 无效的播放状态| 请检查当前播放器状态 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频迁移指南"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > iOS >迁移指南\n\n# 迁移指南\n\n最近更新时间: 2022-06-30 17:18:34\n\nQNRTC iOS SDK v5.x 是基于 v4.x 版本开发的全量重构版本,**接口与 v4.x 的部分接口不兼容** ,**不兼容 v3.x 版本**\n。\n\n请在确认好目前使用的 SDK 版本后,根据实际需要,选择参照 [v4.x 升级 v5.x\n指南](https://developer.qiniu.com/rtc/development_guidelines/11949/migration-\nguide-iOS-v5#1) 或 [v3.x 升级 v5.x\n指南](https://developer.qiniu.com/rtc/development_guidelines/11949/migration-\nguide-iOS-v5#2) 进行版本升级。\n\n# v4.x 升级 v5.x 指南\n\n> * **由于 QNRTC iOS SDK v5.x 主要接口基本兼容 v4.x 接口** ,因此,如果您是 v4.x\n> 版本用户并希望升级到最新版本以获得更好的用户体验,可参考这里提供的升级指南进行迁版本升级。\n>\n\n## 改动简介\n\n5.x 版本优化了 SDK 部分非主要接口调用逻辑,主要改动如下:\n\n### 核心系统类 RTC\n\n4.x 版本相关 RTC 销毁,可以通过 dealloc 方法中示例代码如下:\n\n \n \n // RTC deinit 销毁\n - (void)dealloc {\n [QNRTC deinit];\n NSLog(@\"[dealloc]==> %@\", self.description);\n }\n \n\n5.x 版本 [deinit](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS#deinit)\n方法,**请务必在 dealloc 前调用** ,由于 dealloc 是自发调用,内部可能因为某些资源还未释放,**需要手动主动调用释放**\n,示例代码如下:\n\n \n \n // RTC deinit 销毁\n - (void)viewDidDisappear:(BOOL)animated {\n [QNRTC deinit];\n [super viewDidDisappear:animated];\n }\n \n\n另外,5.x 版本为保证方法名的命名严谨,重命名部分接口 API,**注意实际功能及使用方式不变** ,涉及的接口列出如下:\n\n \n \n // 4.x 初始化 QNRTC,务必使用\n + (void)configRTC:(QNRTCConfiguration *)configuration;\n // 5.x 方法重命名后,如下所示:\n + (void)initRTC:(QNRTCConfiguration *)configuration;\n \n \n \n // 4.x 设置 QNRTCDelegate 代理回调\n + (void)setAudioRouteDelegate:(id <QNRTCDelegate>)delegate;\n // 5.x 方法重命名后,如下所示:\n + (void)setRTCDelegate:(id <QNRTCDelegate>)delegate;\n \n \n \n // 4.x 音频输出设备变更的回调\n - (void)QNRTCDidChangeRTCAudioOutputToDevice:(QNAudioDeviceType)deviceType;\n // 5.x 方法重命名后,如下所示:\n - (void)RTCDidAudioRouteChanged:(QNAudioDeviceType)deviceType;\n \n\n### 核心引擎 Client\n\n4.x 版本支持通过远端的 userID, 直接获取对应的远端 track 列表,示例代码如下:\n\n \n \n // 获取指定用户已被自己订阅的 tracks。\n NSArray * trackArray = [self.client getSubscribedTracks:remoteUserId];\n \n\n5.x 版本删除此方法,改为通过\n[QNRemoteUser](https://developer.qiniu.com/rtc/api/8835/QNRemoteUser-iOS) 的\naudioTrack 和 videoTrack 属性来获取\n\n4.x 版本支持通过传递 userID,直接获取对应用户的网络质量信息,示例代码如下:\n\n \n \n // 获取指定用户的网络质量信息。\n QNNetworkQuality *quality = [self.client getUserNetworkQuality:remoteUserId];\n \n\n5.x 版本更改此方法为直接获取当前订阅的所有远端用户网络质量,具体的\n[QNNetworkQuality](https://developer.qiniu.com/rtc/api/8869/QNNetworkQuality-\niOS) 可通过 `key` 获取,无需再传值获取,示例代码如下:\n\n \n \n // 获取当前订阅的所有远端用户网络质量。\n NSDictionary *dic = [self.client getUserNetworkQuality];\n \n\n5.x 版本在\n[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n新增回调本地网络质量信息\n\n \n \n - (void)RTCClient:(QNRTCClient *)client didNetworkQualityNotified:(QNNetworkQuality *)quality;\n \n\n另外,\n[QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate)\n在 4.x 基础上,为保证方法名的命名严谨,重命名回调接口 API,**注意实际功能及使用方式不变** ,涉及的回调接口列出如下:\n\n \n \n // 4.x 成功创建转推/合流转推任务的回调\n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreamingWith:(NSString *)streamID {}\n // 5.x 方法重命名后,如下所示:\n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreaming:(NSString *)streamID {}\n \n \n \n // 4.x 停止转推/合流转推任务的回调\n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreamingWith:(NSString *)streamID {}\n // 5.x 方法重命名后,如下所示:\n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreaming:(NSString *)streamID {}\n \n \n \n // 4.x 合流转推出错的回调\n - (void)RTCClient:(QNRTCClient *)client didErrorLiveStreamingWith:(NSString *)streamID errorInfo:(QNLiveStreamingErrorInfo *)errorInfo {}\n // 5.x 方法重命名后,如下所示:\n - (void)RTCClient:(QNRTCClient *)client didErrorLiveStreaming:(NSString *)streamID errorInfo:(QNLiveStreamingErrorInfo *)errorInfo {}\n \n\n### 本地 Track 视频数据回调\n\n4.x 的版本,目前只有\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS) 支持获取对应的视频数据帧代理回调,示例代码如下:\n\n \n \n // 摄像头视频 Track 数据回调\n - (void)cameraVideoTrack:(QNCameraVideoTrack *)cameraVideoTrack didGetSampleBuffer:(CMSampleBufferRef)sampleBuffer {\n \n }\n \n\n5.x 版本转移至\n[QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8849/QNLocalVideoTrack-\niOS) 中,支持\n[QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8849/QNLocalVideoTrack-\niOS)\n子类,包括:[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-\niOS);\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/8850/QNScreenVideoTrack-\niOS);\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8853/QNCustomVideoTrack-\niOS) 等子类的本地渲染,以及对应数据帧回调,示例代码如下:\n\n \n \n // 本地视频 Track 数据回调\n - (void)localVideoTrack:(QNLocalVideoTrack *)localVideoTrack didGetPixelBuffer:(CVPixelBufferRef)pixelBuffer {\n \n }\n \n\n### 本地 Track 音频数据回调\n\n4.x 版本,目前只有\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 支持获取对应的音频数据帧代理回调,示例代码如下:\n\n \n \n // 麦克风音频 Track 数据回调\n - (void)microphoneAudioTrack:(QNMicrophoneAudioTrack *)microphoneAudioTrack didGetAudioBuffer:(AudioBuffer *)audioBuffer bitsPerSample:(NSUInteger)bitsPerSample sampleRate:(NSUInteger)sampleRate {\n \n }\n \n\n5.x 版本转移至\n[QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-\niOS) 中,支持\n[QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-\niOS)\n子类,包括:[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS)k;\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-\niOS) 等字类的对应数据帧回调,示例代码如下:\n\n \n \n // 本地音频 Track 数据回调\n - (void)localAudioTrack:(QNLocalAudioTrack *)localAudioTrack didGetAudioBuffer:(AudioBuffer *)audioBuffer bitsPerSample:(NSUInteger)bitsPerSample sampleRate:(NSUInteger)sampleRate {\n \n }\n \n\n### 本地视频 Track 发送 SEI\n\n4.x 版本,需要传入 SEI 信息和重复次数\n\n \n \n - (void)sendSEI:(NSString *)videoSEI repeatNmuber:(NSNumber *)repeatNumber;\n \n\n5.x 版本在 4.x 版本基础上,更新增加参数 `uuid` 自定义设置 uuid,便于区分 SEI 信息\n\n \n \n - (void)sendSEI:(NSString *)videoSEI uuid:(NSString *)uuid repeatNmuber:(NSNumber *)repeatNumber;\n \n\n### 本地摄像头 Track\n\n5.x 版本在 4.x 版本基础上,优化移除部分低概率使用属性,移除的属性例举如下:\n\n \n \n // 视频 Track 回调代理\n @property (nonatomic, weak) id<QNCameraTrackVideoDataDelegate> videoDelegate;\n // 视频采集 session,只读变量,给有特殊需求的开发者使用,最好不要修改。\n @property (nonatomic, readonly) AVCaptureSession * _Nullable captureSession;\n // 视频采集输入源,只读变量,给有特殊需求的开发者使用,最好不要修改。\n @property (nonatomic, readonly) AVCaptureDeviceInput * _Nullable videoCaptureDeviceInput;\n // 手动点击屏幕进行对焦。默认为 YES\n @property (nonatomic, assign, getter=isTouchToFocusEnable) BOOL touchToFocusEnable;\n \n\n其中,本地摄像头 Track `QNCameraTrackVideoDataDelegate` 在 5.x 版本上改由其子类\n[QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8849/QNLocalVideoTrack-\niOS) 的 `QNLocalVideoTrackDelegate` 实现;\n\n手动点击屏幕进行对焦 `touchToFocusEnable` 改由用户通过实现手势点击,传递对焦位置自主实现。\n\n5.x 版本在 4.x 版本基础上,为保证方法名的命名严谨,重命名接口 API,**注意实际功能及使用方式不变** ,涉及的属性列出如下:\n\n \n \n // 4.x 聚焦的位置,(0,0) 代表左上, (1,1) 代表右下。默认为 (0.5, 0.5),即中间位置\n @property (nonatomic, assign) CGPoint focusPointOfInterest;\n // 5.x 方法重命名后,如下所示:\n @property (nonatomic, assign) CGPoint manualFocus;\n \n \n \n // 4.x 设备支持的 formats\n @property (nonatomic, strong, readonly) NSArray<AVCaptureDeviceFormat *> *videoFormats;\n // 5.x 方法重命名后,如下所示:\n @property (nonatomic, strong, readonly) NSArray<AVCaptureDeviceFormat *> *supportedVideoFormats;\n \n \n \n // 4.x 采集的视频的 videoFormat,默认为 AVCaptureSessionPreset640x480\n @property (nonatomic, copy) NSString *sessionPreset;\n // 5.x 方法重命名后,如下所示:\n @property (nonatomic, copy) NSString *videoFormat;\n \n \n \n // 4.x 设置磨皮的程度,范围从 0 ~ 1,0 为不磨皮\n - (void)setBeautify:(CGFloat)beautify;\n // 5.x 方法重命名后,如下所示:\n - (void)setSmoothLevel:(CGFloat)smoothLevel;\n \n \n \n // 4.x 设置摄像头 track 发送图片数据\n - (void)pushCameraTrackWithImage:(nullable UIImage *)image;\n // 5.x 方法重命名后,如下所示:\n - (void)pushImage:(nullable UIImage *)image;\n \n\n### 本地麦克风 Track\n\n4.x 版本使用实现背景音乐混音,通过 `QNMicrophoneAudioTrack` 下的属性 `audioMixer` 操作实现\n\n \n \n self.audioTrack.audioMixer.audioURL = [NSURL URLWithString:@\"http://www.xxx.com/test.mp3\"];\n self.audioTrack.audioMixer.delegate = self;\n \n\n5.x 版本除了支持背景音乐功能,还新增支持多音效混音,依旧需要依赖\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-\niOS) 实现,具体可操作 API 详见\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11930/QNAudioMusicMixer-\niOS) 和\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11928/QNAudioEffectMixer-\niOS)\n\n \n \n self.musicMixer = [self.audioTrack createAudioMusicMixer:_musicString musicMixerDelegate:self];\n self.effectMixer = [self.audioTrack createAudioEffectMixer:self];\n \n\n### Track 的渲染\n\n4.x 的版本本地视频渲染和远端视频渲染,分别对应不同的 view 对象,本地渲染为 `QNGLKView`,远端为\n`QNVideoView`,示例代码如下:\n\n \n \n //本地摄像头渲染方法实现\n self.preview = [[QNGLKView alloc] init];\n [self.cameraTrack play:self.preview];\n \n //远端视频 track 渲染方法实现\n QNVideoView * videoView = [[QNVideoView alloc] init];\n [remoteTrcak play:videoView];\n \n\n5.x 版本对所有 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的渲染 view 都由对应的\n[QNVideoGLView](https://developer.qiniu.com/rtc/11949/migration-guide-iOS-v5)\n来实现,示例代码如下:\n\n \n \n //track 渲染方法实现\n QNVideoGLView* videoView = [[QNVideoGLView alloc] init];\n [track play:videoView];\n \n\n另外,原先其他 Track 涉及的 `fillMode` 也改由\n[QNVideoGLView](https://developer.qiniu.com/rtc/api/11950/QNVideoGLView-iOS)\n配置属性实现。\n\n### 视频编码配置\n\n4.x 版本需要通过对应 Track 的 config 配置初始化传参实现,这里以本地视频 Track `QNCameraVideoTrackConfig`\n为例子,示例代码如下:\n\n \n \n QNCameraVideoTrackConfig *videoTrackConfig = [[QNCameraVideoTrackConfig alloc] initWithSourceTag:@\"camera\" bitrate:600 videoEncodeSize:CGSizeNake(480, 640) multiStreamEnable:NO];\n \n\n5.x 版本统一通过\n[QNVideoEncoderConfig](https://developer.qiniu.com/rtc/api/11944/QNVideoEncoderConfig-\niOS) 配置编码参数\n\n \n \n // 使用对象初始化方法,只用默认值可直接使用默认类方法\n QNVideoEncoderConfig *config = [[QNVideoEncoderConfig alloc] initWithBitrate:600 videoEncodeSize:CGSizeMake(480, 640) videoFrameRate:24];\n QNCameraVideoTrackConfig *videoTrackConfig = [[QNCameraVideoTrackConfig alloc] initWithSourceTag:@\"camera\" config:config multiStreamEnable:NO];\n \n\n### 音频编码配置\n\n4.x 版本需要通过对应 Track 的 config 配置初始化传参实现,这里以本地音频 Track\n`QNMicrophoneAudioTrackConfig` 为例子,示例代码如下:\n\n \n \n QNMicrophoneAudioTrackConfig *audioTrackConfig = [[QNMicrophoneAudioTrackConfig alloc] initWithTag:@\"microphone\" bitrate:64];\n \n\n5.x 版本统一通过\n[QNAudioQuality](https://developer.qiniu.com/rtc/api/11936/QNAudioQuality-iOS)\n配置编码参数\n\n \n \n // 使用对象初始化方法,只用默认值可直接使用默认类方法\n QNAudioQuality *quality = [[QNAudioQuality alloc] initWithBitrate:64];\n QNMicrophoneAudioTrackConfig *audioTrackConfig = [[QNMicrophoneAudioTrackConfig alloc] initWithTag:@\"microphone\" audioQuality:quality];\n \n\n### 合流转推\n\n5.x 版本在 4.x 版本基础上,为保证方法名的命名严谨,重命名\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-\niOS) 下的 2个属性,**注意实际功能及使用方式不变**\n\n \n \n // 4.x 当前要操作的 Track 的 id\n @property (nonatomic, strong) NSString *trackId;\n // 5.x 方法重命名后,如下所示:\n @property (nonatomic, strong) NSString *trackID;\n \n \n \n // 4.x 该 Track 在合流画面中的层次,0 为最底层\n @property (nonatomic, assign) NSUInteger zIndex;\n // 5.x 方法重命名后,如下所示:\n @property (nonatomic, assign) NSUInteger zOrder;\n \n\n### 跨房配置\n\n5.x 版本在 4.x 版本基础上,为保证方法名的命名严谨,方法重命名\n[QNRoomMediaRelayConfiguration](https://developer.qiniu.com/rtc/11949/migration-\nguide-iOS-v5) 下的删除目标房间接口,**注意实际功能及使用方式不变**\n\n \n \n // 4.x 删除目标房间\n - (BOOL)removeDestRoomInfoForRoomName:(NSString *_Nonnull)roomName;\n // 5.x 方法重命名后,如下所示:\n - (BOOL)removeDestRoomInfo:(NSString *_Nonnull)roomName;\n \n\n# v3.x 升级 v5.x 指南\n\n> * **由于 QNRTC iOS SDK v5.x 不兼容 3.x 版本**\n> ,因此,如果您是老版本用户并希望升级到最新版本以获得更好的用户体验,可参考这里提供的升级指南进行迁版本升级。\n> * 老版本文档可查看 [3.x 及之前版本的相关文档](https://doc.qnsdk.com/rtn/ios)。\n>\n\n## 改动简介\n\n5.x 版本优化了 SDK 接口调用逻辑,主要改动如下:\n\n### 优化实时音视频管理方式\n\n在 5.x 版本 SDK 中,我们提供了 [QNRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-\niOS) 和 [QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n两个类来替代 `QNRTCEngine` 来进行 SDK 的初始化、Track 的创建以及房间的管理等操作。其中:\n\n * [QNRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS) 主要负责处理 SDK 的初始化以及本地音视频 Track 的创建采集等房间无关的操作。\n * [QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS) 主要负责处理房间的加入、离开,音视频 Track 的发布、订阅等房间交互相关的操作。\n\n上述管理方式的改动将影响到 SDK 的主要交互流程,若您需要升级,可以参考当前使用指南下的核心场景使用文档分模块进行更新。\n\n### 优化音视频 Track 的定义及使用方式\n\n区别于 3.x 版本所有 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 均使用 `QNTrackInfo`,在 5.x 版本 SDK 中,我们细化了音视频 Track\n的分类,基于不同类型的 Track 提供了不同的控制接口,新版本的 Track 对本地 Track 和远端 Track 做了区分,继承结构定义如下:\n\n * [QNTrack](https://developer.qiniu.com/rtc/api/8851/QNTrack-iOS)\n * [QNLocalTrack](https://developer.qiniu.com/rtc/api/8847/QNLocalTrack-iOS)\n * [QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/8854/QNLocalAudioTrack-iOS)\n * [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/8855/QNMicrophoneAudioTrack-iOS)\n * [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/8856/QNCustomAudioTrack-iOS)\n * [QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/8849/QNLocalVideoTrack-iOS)\n * [QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/8852/QNCameraVideoTrack-iOS)\n * [QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/8853/QNCustomVideoTrack-iOS)\n * [QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/8850/QNScreenVideoTrack-iOS)\n * [QNRemoteTrack](https://developer.qiniu.com/rtc/api/8857/QNRemoteTrack-iOS)\n * [QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/8859/QNRemoteAudioTrack-iOS)\n * [QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/8858/QNRemoteVideoTrack-iOS)\n\n> 注意:本地仅支持创建一路音频 Track,重复创建会返回 nil。\n\n5.x 版本除了对音视频 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的结构进行了调整,还将部分 Track 的操作接口从 `QNRTCEngine` 移到了 Track\n上,包括采集、渲染、美颜以及音视频回调代理的设置等。更详细接口定义请参考对应的 API 文档。\n\n### 优化事件监听接口\n\nv5.x 细化了不同场景下的事件回调,移除了 `QNRTCEngineDelegate` 回调代理。新版本事件回调代理定义如下:\n\n * [QNRTCClientDelegate:](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate) 核心代理,定义了房间相关的回调事件,包括房间连接状态、用户加入离开状态等\n * [QNLocalVideoTrackDelegate:](https://developer.qiniu.com/rtc/api/11970/QNLocalVideoTrackDelegate) 本地视频 Track 代理,回调视频数据帧\n * [QNLocalAudioTrackDelegate:](https://developer.qiniu.com/rtc/api/11969/QNLocalAudioTrackDelegate) 本地音频 Track 代理,回调音频数据帧\n * [QNScreenVideoTrackDelegate:](https://developer.qiniu.com/rtc/api/9582/QNScreenVideoTrackDelegate) 屏幕录制 Track 代理,回调错误信息\n * [QNCustomAudioTrackDelegate:](https://developer.qiniu.com/rtc/api/11946/QNCustomAudioTrackDelegate) 自定义音频 Track 代理,回调错误信息\n * [QNRemoteVideoTrackDelegate:](https://developer.qiniu.com/rtc/api/11947/QNRemoteVideoTrackDelegate) 远端视频 Track 代理,回调视频数据帧、静默开关以及监听视频大小流切换\n * [QNRemoteAudioTrackDelegate:](https://developer.qiniu.com/rtc/api/11948/QNRemoteAudioTrackDelegate) 远端音频 Track 代理,回调数据帧和静默开关\n\n* * *\n\n## 核心步骤迁移详解\n\n为了更方便您的版本迁移,本部分详细介绍了新老版本针对通话核心步骤的不同处理方式。\n\n### 初始化\n\n3.x 及之前的版本,初始化操作需要调用 `QNRTCEngine` 的相关方法,示例代码如下:\n\n \n \n QNRTCConfiguration *configuration = [QNRTCConfiguration defaultConfiguration]; // 创建并初始化 SDK 默认配置\n QNRTCEngine *engine = [[QNRTCEngine alloc] initWithConfiguration:configuration];// 创建 QNRTCEngine 对象\n \n\n5.x 版本,初始化操作直接通过 [QNRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS)\n类方法即可实现,示例代码如下:\n\n \n \n QNRTCConfiguration *configuration = [QNRTCConfiguration defaultConfiguration]; // 创建并初始化 SDK 默认配置\n [QNRTC initRTC:configuration]; // QNRTC 初始化\n QNRTCClient *rtcClient = [QNRTC createRTCClient]; // 创建 QNRTCClient\n \n\n实现差异:\n\n * 5.x 版本 SDK 直接通过 [QNRTC.init](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS#initRTC) 即可完成初始化操作。\n\n更详细的 5.x\n版本初始化使用方式可参考[初始化使用指南](https://developer.qiniu.com/rtc/development_guidelines/9257/user-\nguidance-iOS)\n\n### 加入房间\n\n3.x 及之前的版本,通过 `- (void)joinRoomWithToken:(NSString *)token;` 的方式加入房间,示例代码如下:\n\n \n \n [rtcEngine joinRoomWithToken:roomToken]; // 加入房间\n \n // 加入房间成功后会触发如下回调\n - (void)RTCEngine:(QNRTCEngine *)engine roomStateDidChange:(QNConnectionState)roomState {\n if (state == QNConnectionStateConnected) {\n \t\t// 成功加入房间\n }\n }\n \n\n5.x 版本加入房间首先需要创建\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS) 对象,再通过\n[QNRTCClient.join](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-\niOS#join%5B1/2%5D) 的方式加入房间,示例代码如下:\n\n \n \n rtcClient = [QNRTC createRTCClient]; // 创建 QNRTCClient 对象,并设置房间事件监听函数\n [rtcClient join:roomToken]; // 加入房间\n \n // 加入房间成功后会触发如下回调\n - (void)RTCClient:(QNRTCClient *)client didConnectionStateChanged:(QNConnectionState)state disconnectedInfo:(QNConnectionDisconnectedInfo *)info {\n if (state == QNConnectionStateConnected) {\n \t\t// 成功加入房间\n }\n }\n \n\n实现差异:\n\n * 5.x 版本移除了 `QNRTCEngine` 的接口调用,使用 [QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS) 进行房间的相关操作\n * 5.x 版本房间连接状态监听回调改为 [QNRTCClientDelegate.didConnectionStateChanged](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didConnectionStateChanged),监听事件包括加入房间成功、失败以及成功离开房间等\n\n更详细的 5.x\n版本房间管理使用方式可参考[房间管理使用指南](https://developer.qiniu.com/rtc/development_guidelines/9261/room-\nmanagement-iOS)\n\n### 创建本地 Track\n\n3.x 及之前的版本,通过 `QNRTCEngine` 创建本地\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track),示例代码如下:\n\n \n \n // 创建本地音频 Track\n QNTrackInfo *audioInfo = [[QNTrackInfo alloc] initWithSourceType:QNRTCSourceTypeAudio master:YES bitrateBps:self.audioBitrate * 1000];\n \n // 创建本地 Camera 视频 Track\n QNTrackInfo *videoInfo = [[QNTrackInfo alloc] initWithSourceType:QNRTCSourceTypeCamera master:YES bitrateBps:self.videoBitrate * 1000 videoEncodeSize:self.videoEncodeSize];\n \n\n5.x 版本通过 [QNRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS) 创建本地\n[Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-basic-\nconcept#track),示例代码如下:\n\n \n \n // 创建本地音频 Track\n QNMicrophoneAudioTrack *microphoneAudioTrack = [QNRTC createMicrophoneAudioTrack];\n \n // 创建本地 Camera 视频 Track\n QNCameraVideoTrack *cameraVideoTrack = [QNRTC createCameraVideoTrack];\n \n\n实现差异:\n\n * 5.x 版本移除了 `QNRTCEngine` 创建 Track 的接口,改用 [QNRTC](https://developer.qiniu.com/rtc/api/8834/QNRTC-iOS) 相关接口创建\n * 5.x 版本 Track 相关的配置通过 [QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/api/8844/QNCameraVideoTrackConfig-iOS) 或者 [QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/api/8837/QNMicrophoneAudioTrackConfig-iOS) 等类似 Config 实现,创建时不传该参数则使用 SDK 提供的默认配置。3.x 版本需要在 `QNTrackInfo` 初始化配置中传入,不传则使用默认配置。\n\n更详细的 5.x\n版本音视频采集使用方式可参考[音视频采集使用指南](https://developer.qiniu.com/rtc/development_guidelines/9258/audio-\nand-video-collection-iOS)\n\n### Track 的使用\n\n3.x 及之前的版本对 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的大部分操作都由 `QNRTCEngine` 来实现,这里以部分功能举例,示例代码如下:\n\n \n \n // 开启 Camera Track 内置美颜并设置美颜参数\n [rtcEngine setBeautifyModeOn:YES]; // 开启美颜\n [rtcEngine setBeautify:0.5]; // 设置美颜参数\n [rtcEngine setWhiten:0.5]; // 设置美白参数\n [rtcEngine setRedden:0.5]; // 设置红润参数\n \n [rtcEngine startCapture]; // 开启 Camera Track 采集\n [rtcEngine stopCapture]; // 停止 Camera Track 采集\n \n // 静默本地 Track\n [rtcEngine muteAudio:YES]; // 设置音频静默状态\n [rtcEngine muteVideo:YES]; // 设置视频静默状态\n \n\n5.x 版本对 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 的操作都由对应的 Track 来实现,示例代码如下:\n\n \n \n // 开启 Camera Track 内置美颜并设置美颜参数\n [cameraVideoTrack setBeautifyModeOn:YES]; // 开启美颜\n [cameraVideoTrack setSmoothLevel:0.5]; // 设置美颜参数\n [cameraVideoTrack setWhiten:0.5]; // 设置美白参数\n [cameraVideoTrack setRedden:0.5]; // 设置红润参数\n \n [cameraVideoTrack startCapture]; // 开启 Camera Track 采集\n [cameraVideoTrack stopCapture]; // 停止 Camera Track 采集\n \n // 静默本地 Track\n [localAudio updateMute:YES]; // 设置音频静默状态\n [localVideo updateMute:YES]; // 设置视频静默状态\n \n [microphoneAudioTrack setVolume:0.8]; // 设置麦克风采集音量\n \n\n实现差异:\n\n * 5.x 版本将 Track 相关操作接口都移交给对应的 Track 来实现,移除了 `QNRTCEngine` 的相关调用\n\n> 上述示例代码仅展示了部分功能的示例,更多 Track 相关的接口使用请参考对应的接口文档\n\n### 发布本地 Track\n\n3.x 及之前的版本发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n // 发布本地 Track\n [rtcEngine publishTracks:tracks];\n \n // 发布成功后,会触发 QNRTCEngineDelegate.didPublishLocalTracks 回调\n - (void)RTCEngine:(QNRTCEngine *)engine didPublishLocalTracks:(NSArray<QNTrack *> *)tracks {\n \t// 回调发布成功的 Track 列表\n }\n \n\n5.x 版本发布 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n来实现,示例代码如下:\n\n \n \n // 发布本地 Track\n [rtcClient publish:tracks completeCallback:^(BOOL onPublished, NSError *error) {\n \tif (onPublished) {\n \t\t// Track 发布成功\n \t} else {\n \t\t// Track 发布失败\n \t}\n }];\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#publish%5B1/2%5D) 来实现本地 Track 的发布,移除了 `QNRTCEngine` 的相关调用\n * 5.x 版本发布结果回调改为了 [QNPublishResultCallback](https://developer.qiniu.com/rtc/api/9254/QNTypeDefines#QNPublishResultCallback),可在 [QNRTCClient.publish](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#publish%5B2/2%5D) 中传入,移除了 `QNRTCEngineDelegate.didPublishLocalTracks` 回调\n\n更详细的 5.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/9260/publish-\nand-subscribe-iOS)\n\n### 订阅远端 Track\n\n3.x 及之前的版本订阅 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n rtcEngine.autoSubscribe = YES; // 设置是否自动订阅远端 Track,默认开启\n [rtcEngine subscribeTracks:tracks]; // 手动订阅场景下,订阅远端 Track\n \n // 订阅成功后,会触发 QNRTCEngineDelegate.didSubscribedRemoteVideoTracks 回调\n - (void)RTCEngine:(QNRTCEngine *)engine didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID {\n \t// 回调订阅成功的 Track 列表\n }\n \n\n5.x 版本订阅 [Track](https://developer.qiniu.com/rtc/quick_start/9909/the-rtc-\nbasic-concept#track) 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n来实现,示例代码如下:\n\n \n \n rtcClient.autoSubscribe = YES; // 设置是否自动订阅远端 Track,默认开启\n [rtcClient subscribe:tracks]; // 手动订阅场景下,订阅远端 Track,支持可变参数\n \n // 订阅成功后,会触发 QNRTCClientDelegate.didSubscribedRemoteVideoTracks 回调\n - (void)RTCClient:(QNRTCClient *)client didSubscribedRemoteVideoTracks:(NSArray<QNRemoteVideoTrack *> *)videoTracks audioTracks:(NSArray<QNRemoteAudioTrack *> *)audioTracks ofUserID:(NSString *)userID {\n \t// 回调订阅成功的 Track 列表\n }\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.subscribe](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#subscribe) 来实现对 Track 的订阅,移除了 `QNRTCEngine` 的相关调用\n * 5.x 版本订阅结果通过 [QNRTCClientDelegate.didSubscribedRemoteVideoTracks](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate#didSubscribedRemoteVideoTracks) 回调,移除了 `QNRTCEngineDelegate` 相关的回调\n\n更详细的 5.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/9260/publish-\nand-subscribe-iOS)\n\n### CDN 转推\n\n3.x 及之前的版本 CDN 转推通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n // 创建并配置单路转推任务,配置步骤省略\n QNForwardStreamConfiguration *forwardConfig = [QNForwardStreamConfiguration alloc] init];\n \n [rtcEngine createForwardJobWithConfiguration:forwardConfig]; // 开始单路转推任务\n [rtcEngine stopForwardJobWithJobId:forwardConfig.jobId]; // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n QNMergeStreamConfiguration *mergeConfig = [QNMergeStreamConfiguration alloc] init];\n [rtcEngine createMergeStreamJobWithConfiguration:mergeConfig; // 开始合流转推任务\n [rtcEngine setMergeStreamLayouts:layouts jobId:mergeConfig.jobId]; // 更新合流布局\n [rtcEngine removeMergeStreamLayouts:layouts jobId:mergeConfig.jobId]; // 移除合流布局\n [rtcEngine stopMergeStreamWithJobId:mergeConfig.jobId]; // 停止合流转推任务\n \n // 创建成功后会触发 QNRTCEngineDelegate 的相关回调\n - (void)RTCEngine:(QNRTCEngine *)engine didCreateForwardJobWithJobId:(NSString *)jobId {\n \t// 回调创建成功的单路转推 job id\n }\n \n - (void)RTCEngine:(QNRTCEngine *)engine didCreateMergeStreamWithJobId:(NSString *)jobId {\n \t// 回调创建成功的合流转推 job id\n }\n \n\n5.x 版本 CDN 转推通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n来实现,示例代码如下:\n\n \n \n // CDN 转推相关回调\n - (void)RTCClient:(QNRTCClient *)client didStartLiveStreaming:(NSString *)streamID {\n \t// 对应 streamID 的单路/合流转推任务开始转推\n }\n \n - (void)RTCClient:(QNRTCClient *)client didStopLiveStreaming:(NSString *)streamID {\n \t// 对应 streamID 的单路/合流转推任务已停止转推\n }\n \n - (void)RTCClient:(QNRTCClient *)client didTranscodingTracksUpdated:(BOOL)success withStreamID:(NSString *)streamID {\n \t// 合流布局更改时触发此回调\n }\n \n - (void)RTCClient:(QNRTCClient *)client didErrorLiveStreaming:(NSString *)streamID errorInfo:(QNLiveStreamingErrorInfo *)errorInfo {\n \t// 转推任务出错时触发此回调\n }\n \n // 创建并配置单路转推任务,配置步骤省略\n QNDirectLiveStreamingConfig *directLiveStreamingConfig = [[QNDirectLiveStreamingConfig alloc] init];\n [rtcClient startLiveStreamingWithDirect:directLiveStreamingConfig]; // 开始单路转推任务\n [rtcClient stopLiveStreamingWithDirect:directLiveStreamingConfig]; // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n QNTranscodingLiveStreamingConfig *transcodingLiveStreamingConfig = [[QNTranscodingLiveStreamingConfig alloc] init];\n [rtcClient startLiveStreamingWithTranscoding:transcodingLiveStreamingConfig]; // 开始合流转推任务\n [rtcClient setTranscodingLiveStreamingID:transcodingLiveStreamingConfig.streamID withTracks:transcodingTracks]; // 更新合流布局\n [rtcClient removeTranscodingLiveStreamingID:transcodingLiveStreamingConfig.streamID withTracks:transcodingTracks]; // 移除合流布局\n [rtcClient stopLiveStreamingWithTranscoding:transcodingLiveStreamingConfig]; // 停止合流转推任务\n \n\n实现差异:\n\n * 5.x 版本通过 [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8861/QNDirectLiveStreamingConfig-iOS) 代替 `QNForwardStreamConfiguration` 实现单路转推的配置;通过 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/8862/QNTranscodingLiveStreamingConfig-iOS) 代替 `QNMergeStreamConfiguration` 实现合流转推的配置;通过 [QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/8863/QNTranscodingLiveStreamingTrack-iOS) 代替 `QNMergeStreamLayout` 实现合流布局的控制\n * 5.x 版本通过 [QNRTCClientDelegate](https://developer.qiniu.com/rtc/api/9248/QNRTCClientDelegate) 代替 `QNRTCEngineDelegate` 相关方法来实现 CDN 转推状态的监听\n\n更详细的 5.x 版本 CDN 转推使用方式可参考 [CDN\n转推使用指南](https://developer.qiniu.com/rtc/development_guidelines/9262/turn-the-\ncdn-push-iOS)\n\n### 离开房间\n\n3.x 及之前的版本离开房间通过 `QNRTCEngine` 来实现,示例代码如下:\n\n \n \n [rtcEngine leaveRoom]; // 离开房间\n \n\n5.x 版本离开房间通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS)\n来实现,示例代码如下:\n\n \n \n [rtcClient leave]; // 离开房间\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.leave](https://developer.qiniu.com/rtc/api/8836/QNRTCClient-iOS#leave) 来实现离开房间的操作,移除了 `QNRTCEngine` 的相关调用\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >初始化\n\n# 初始化\n\n最近更新时间: 2022-07-14 15:44:53\n\n本部分介绍了实时音视频的初始化方式及其配置项。\n\n在加入房间前,SDK 提供了一系列的方法用来进行初始化配置。在配置完成后通过 `QNRTC.createClient` 创建 QNRTCClient对象\n即可。\n\n# 设置日志等级\n\n通过调用\n[QNRTC.setLogLevel](https://developer.qiniu.com/rtc/9070/WebQNRTC#setLogLevel)\n设置 SDK 的日志等级。默认等级为 `VERBOSE`。\n\n例如,下面代码会关闭 SDK 的日志输出:\n\n \n \n import QNRTC, { QNLogLevel } from \"qnweb-rtc\";\n \n QNRTC.setLogLevel(QNLogLevel.NONE);\n \n\n# 设置媒体传输方式\n\n通过调用\n[QNRTC.setTransportPolicy](https://developer.qiniu.com/rtc/9070/WebQNRTC#setTransportPolicy)\n设置媒体传输方式。默认使用 `PREFER_UDP`。\n\n例如,下面代码强制媒体数据使用 TCP 传输:\n\n \n \n import QNRTC, { QNTransportPolicy } from \"qnweb-rtc\";\n \n QNRTC.setTransportPolicy(QNTransportPolicy.FORCE_TCP)\n \n\n> 注意,该选项应当在加入房间之前配置,否则不会生效。\n\n# 创建房间客户端对象\n\n当完成所需配置后,就可以通过\n[QNRTC.createClient](https://developer.qiniu.com/rtc/9070/WebQNRTC#createClient)\n来创建房间客户端对象\n[QNRTCClient](https://developer.qiniu.com/rtc/9090/WebQNRTCClient)。后续的关于房间、发布订阅的逻辑均通过该对象来操作。\n\n \n \n import QNRTC from \"qnweb-rtc\";\n \n const mClient = QNRTC.createClient();\n \n\n> 注意,同一个页面,该方法仅允许执行一次。即 QNRTCClient 对象应当只创建一个,当作单例对象使用。\n\n# 示例代码\n\n完成示例代码可参考 [API-Examples-Web](https://github.com/pili-engineering/QNRTC-\nWeb/tree/master/API-Examples-Web)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频浏览器兼容性检测"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >浏览器兼容性检测\n\n# 浏览器兼容性检测\n\n最近更新时间: 2022-01-05 15:28:19\n\n在开始音视频通话之前,建议先对检测当前设备是否正常。根据不同情况,SDK 提供了多种方法来完成检测。\n\n# 接口检测\n\n可以通过\n[QNRTC.isBrowserSupported](https://developer.qiniu.com/rtc/9070/WebQNRTC#isBrowserSupported)\n来获取 SDK 是否支持当前设备。\n\n \n \n if (QNRTC.isBrowserSupported) {\n console.log(\"support!\");\n } else {\n console.log(\"not support!\");\n }\n \n\n# 设备检测\n\n可以直接通过请求创建 Track,来判断是否支持媒体流采集。\n\n \n \n // 测试摄像头采集\n try {\n const track = await QNRTC.createCameraVideoTrack();\n } catch(e) {\n console.log(\"camera track not support!\");\n }\n \n // 测试麦克风采集\n try {\n const track = await QNRTC.createMicrophoneAudioTrack();\n } catch(e) {\n console.log(\"microphone track not support!\");\n }\n \n\n# RTC 全流程检测\n\n除了上面两种检测方法外,SDK 还提供了一个\n[QNRTC.checkSystemRequirements](https://developer.qiniu.com/rtc/9070/WebQNRTC#checkSystemRequirements)\n方法。执行该方法,会自动检测媒体流采集、加入房间、发布、订阅、离开房间等整个流程。使用方法如下。\n\n \n \n const result = await QNRTC.checkSystemRequirements();\n if (result.ok) {\n console.log(\"test ok!\");\n } else {\n console.log(\"test fail\", result.reason);\n }\n \n\n注意,由于该方法会实际跑一遍 RTC 视频通话的流程,因此比较耗时,一般需要花费 30s 左右。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2022-07-14 15:45:05\n\n音视频 track 为音视频交互的基本单位。根据 track 功能不同,我们对 track 做了分类。下面来看典型场景下 track\n的创建及采集等功能的使用。\n\n# 摄像头视频 Track\n\n可以通过\n[QNRTC.createCameraVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createCameraVideoTrack)\n来创建摄像头视频\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/9068/WebQNCameraVideoTrack)。\n\n \n \n const mCameraVideoTrack = await QNRTC.createCameraVideoTrack({\n encoderConfig: {\n width: 640, // 画面宽度\n height: 360, // 画面高度\n frameRate: 20, // 视频帧率 \n },\n tag: \"camera\" // 自定义 tag\n });\n \n\n以上例子中,指定了摄像头 track 画面的宽为 `640`,高为 `360`,帧率为 `20`,更多的配置项可以参考\n[QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/9077/WebQNCameraVideoTrackConfig)。\n\n> createCameraVideoTrack 可以重复调用,就算指定的配置选项完全相同,每次调用返回的 Track 也都是各自独立的。\n\n为了后续能够区分不同的 track,可以使用这里的参数 `tag` 来配置一个自定义字符串,可以将这个操作理解为给这个 track 起了一个名字。\n\n> 视频 Track 码率最低 100 kbps,最高 4000 kbps。\n\n# 麦克风音频 Track\n\n可以通过\n[QNRTC.createMicrophoneAudioTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createMicrophoneAudioTrack)\n来创建麦克风音频\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)。\n\n \n \n const mMicrophoneAudioTrack = await QNRTC.createMicrophoneAudioTrack({\n encoderConfig: {\n sampleRate: 16000, // 采样率\n stereo: true // 使用双声道\n }\n });\n \n\n上面的例子中,指定了麦克风音频 track 的采样率为 `16000`,并设置为双声道采集,更多配置可参考\n[QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/9055/WebQNMicrophoneAudioTrackConfig)。\n\n# 屏幕共享\n\n关于屏幕分享,见文档 [屏幕分享](https://developer.qiniu.com/rtc/10785/web-screen-sharing)。\n\n# 外部音频数据 track\n\n除了可以使用媒体设备采集 track 外,还可以直接基于音频文件数据来创建 track。具体来说,通过\n[QNRTC.createBufferSourceAudioTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createBufferSourceAudioTrack)\n方法来创建外部音频\n[QNBufferSourceAudioTrack](https://developer.qiniu.com/rtc/api/9069/WebQNBufferSourceAudioTrack)。\n\n举例来说,首先在 html 页面中创建文件上传标签。\n\n \n \n <input type=\"file\" accept=\".mp3, .ogg\" id=\"local-audio-file\" />\n \n\n然后绑定回调函数,获取外部音频文件数据。\n\n \n \n const localAudioFileInput = document.getElementById(\"local-audio-file\");\n \n localAudioFileInput.onchange = async (e) => {\n const file = e.target.files ? e.target.files[0] : undefined;\n if (!file) return;\n const mBuffeSourceAudioTrack = await QNRTC.createBufferSourceAudioTrack({ source: file, tag: \"bufferSourceAudio\" });\n }\n \n\n# 画布 track\n\nSDK 还支持通过\n[QNRTC.createCanvasVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createCanvasVideoTrack)\n方法创建一个\n[QNCanvasVideoTrack](https://developer.qiniu.com/rtc/10320/WebQNCanvasVideoTrack),可以向画布中画入自定义图片。\n\n例如,下面创建一个画布 track,并在指定的位置画入了两张图片。\n\n \n \n const track = await QNRTC.createCanvasVideoTrack({\n width: 300, // 画布宽\n height: 240, // 画布高\n sources: [\n {\n source: \"http://pili-playback.qnsdk.com/ivs_background_1280x720.png\",\n x: 0, // 图片所处画布的左上角坐标 x\n y: 0, // 图片所处画布的左上角坐标 y\n width: 100, // 图片占据的宽度\n height: 100 // 图片占据的高度\n },\n {\n source: \"http://pili-playback.qnsdk.com/ivs_background_1280x720.png\",\n x: 100,\n y: 100,\n width: 100,\n height: 100\n }\n ],\n tag: \"canvas-track\"\n });\n \n\n# CustomTrack\n\nCustomTrack 可以分为 CustomAudioTrack 和 CustomVideoTrack。可以使用\n[QNRTC.createCustomAudioTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createCustomAudioTrack)\n来创建一个\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/9091/WebQNCustomAudioTrack),或者\n[QNRTC.createCustomVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createCustomVideoTrack)\n方法来创建\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/9088/WebQNCustomVideoTrack)。\n\nCustomTrack 的典型使用场景是,将从 video 标签或者 canvas 标签中提取的媒体流发布到七牛房间,或者通过 [Web Audio\nAPI](https://developer.mozilla.org/zh-CN/docs/Web/API/Web_Audio_API)\n构造自定义音频发布到七牛房间。\n\n例如,html 页面中存在一个 video 标签如下。\n\n \n \n <video crossorigin=\"anonymous\" id=\"m-video\" src=\"https://docs.qnsdk.com/big_buck_bunny_720p_surround.mp4\"></video>\n \n <button id=\"play-btn\">play</button>\n \n\n下面通过 [captureStream](https://developer.mozilla.org/en-\nUS/docs/Web/API/HTMLMediaElement/captureStream) 提取到媒体流,然后可将其作为媒体源,创建七牛 track。\n\n \n \n const mVideo = document.getElementById(\"m-video\");\n const playBtn = document.getElementById(\"play-btn\");\n \n playBtn.onclick = async () => {\n mVideo.play();\n \n const mediaStream = mVideo.captureStream();\n const mediaTracks = mediaStream.getTracks();\n \n for (const mediaTrack of mediaTracks) {\n switch (mediaTrack.kind) {\n case \"audio\":\n const mCustomAudioTrack = await QNRTC.createCustomAudioTrack({ mediaStreamTrack: mediaTrack, bitrate: 64, tag: \"customAudio\" });\n break;\n case \"video\":\n const mCustomVideoTrack = await QNRTC.createCustomVideoTrack({ mediaStreamTrack: mediaTrack, bitrate: 2000, tag: \"customVideo\" });\n break;\n }\n }\n }\n \n\n# 本地预览\n\n当 track 创建完成之后,下面来看如何播放 track。\n\n首先需要在 html 页面中准备一个容器标签,后续播放时会在该容器下创建播放元素。\n\n \n \n <div id=\"container\"></div>\n \n\n各种类型的 track 都有一个共同的父类\n[QNTrack](https://developer.qiniu.com/rtc/9076/WebQNTrack),可以调用该父类上的\n[play](https://developer.qiniu.com/rtc/9076/WebQNTrack#play) 方法来完成播放。\n\n \n \n const container = document.getElementById(\"container\");\n mCameraVideoTrack.play(container);\n \n\n# 示例代码\n\n外部音频数据场景的示例代码可参考 [API-Examples-\nWeb/publishExternalAudio](https://github.com/pili-engineering/QNRTC-\nWeb/tree/master/API-Examples-Web/publishExternalAudio) CustomTrack场景的示例代码可参考\n[API-Examples-Web/customTrack](https://github.com/pili-engineering/QNRTC-\nWeb/tree/master/API-Examples-Web/customTrack)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >房间管理\n\n# 房间管理\n\n最近更新时间: 2022-11-07 17:34:43\n\n本部分介绍如何进行房间管理,获取房间信息以及用户信息等常见功能。\n\n# 监听房间连接状态\n\nSDK 内部维护了当前客户端与房间之间的连接状态,建议在加入房间之前,先对连接状态进行监听,根据当前状态处理相关逻辑。\n\n \n \n mClient.on('connection-state-changed', function(connectionState) {\n console.log('connection-state-changed', connectionState);\n });\n \n\n其中,[connectionState](https://developer.qiniu.com/rtc/9080/WebQNConnectionState)\n表示当前所处状态,每个状态均与相应行为操作相关,例如:\n\n * 初始情况下,状态为 `DISCONNECTED`\n * 与房间建立连接过程中,状态变为 `CONNECTING`\n * 与房间连接成功后,状态变为 `CONNECTED`\n * 与房间连接断开后重连中,状态变为 `RECONNECTING`\n * 与房间重连成功后,状态变为 `RECONNECTED`\n * 与房间断开连接后,状态再次变为 `DISCONNECTED`\n\n这里需要注意,状态与操作行为相关,如果发生某种操作与当前状态不符的情况,如正处在 `CONNECTED` 中却又一次执行加入房间的行为,则会收到 SDK\n抛出的错误。\n\n# 加入房间\n\n在创建房间对象 [QNRTCClient](https://developer.qiniu.com/rtc/9090/WebQNRTCClient)\n完成之后,可以调用 [join](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#join)\n方法来加入房间。\n\n \n \n const roomToken = \"xxx\";\n await mClient.join(roomToken);\n \n\n> 关于 roomToken 在服务端的生成可查阅 [RoomToken\n> 的签算](https://developer.qiniu.com/rtc/8813/roomToken)。\n\n当本地加入房间,其他正在房间中的远端用户可以通过监听 [user-\njoined](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#user-joined)\n事件获取该信息。\n\n \n \n mClient.on('user-joined', function(user){\n console.log('user-joined', user);\n });\n \n\n# 离开房间\n\n本地调用 [leave](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#leave)\n方法,可以退出房间。\n\n \n \n await mClient.leave();\n \n\n本地退出房间,正在房间中的远端用户可以通过监听 [user-\nleft](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#user-left) 事件获取该信息。\n\n \n \n mClient.on('user-left', function(user) {\n console.log('user-left', user);\n });\n \n\n# 异常退出房间\n\n在网络发生异常等情况下,如果 SDK 与服务端的连接断开,SDK\n内部会尝试主动重连。如果重连成功,[connectionState](https://developer.qiniu.com/rtc/9080/WebQNConnectionState)\n的状态会变为 `RECONNECTED`。\n\n但是,如果经过多种重连逻辑均无法恢复正常连接时,SDK 会主动退出房间,房间连接状态变为 `DISCONNECTED`。\n\n此时的事件回调中可以获取到第二个参数\n[info](https://developer.qiniu.com/rtc/9071/WebQNConnectionDisconnectedInfo)\n对象,该对象中包含了异常退出房间的信息。\n\n \n \n import { QNConnectionState, QNConnectionDisconnectedReason } from \"qnweb-rtc\";\n \n mClient.on('connection-state-changed', function(connectionState, info) {\n if (connectionState === QNConnectionState.DISCONNECTED && \n info.reason === QNConnectionDisconnectedReason.ERROR) {\n console.warning(\"网络异常,请检查网络后重试\");\n }\n });\n \n\n此时建议提示用户网络异常,请用户检查网络后重试。\n\n导致异常退出房间的所有场景和相关错误码\n\n * 用户token错误 `错误码10001`\n * 用户token过期 `错误10002`\n * 断线重连失败 `错误码10007`\n * 用户在其他页面或终端登录 `错误码10022`\n * 房间人数已满 `错误码10011`\n * 房间已关闭 `错误码10012`\n * 重连超时或房间销毁 `错误码21003`\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-07-14 15:45:25\n\n本部分介绍能够实现向房间发布媒体流或取消发布,订阅媒体流或停止订阅等操作。\n\n# 发布本地 Track\n\n发布 Track 前,需要对 Track\n进行配置和创建,详情请见[音视频采集](https://developer.qiniu.com/rtc/9387/audio-and-video-\ncollection-web)。\n\n创建好 Track 后即可将该 Track 通过\n[publish](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#publish)\n方法向房间内进行发布。\n\n \n \n await mClient.publish(tracks);\n \n\n发布 Track 成功后,远端用户在监听 [user-\npublished](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#user-published)\n后会收到如下事件通知:\n\n \n \n mClient.on('user-published', function(userID, track){\n console.log('user-published', userID, track)\n });\n \n\n# 取消发布本地 Track\n\n调用 [unpublish](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#unpublish)\n取消发布本地媒体流。\n\n \n \n await mClient.unpublish(tracks);\n \n\n取消发布成功后,远端用户在监听 [user-\nunpublished](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#user-\nunpublished) 后会收到如下事件通知:\n\n \n \n mClient.on('user-unpublished', function(userID, track) {\n console.log('user-unpublished', userID, track);\n });\n \n\n# 订阅远端 Track\n\n当收到远端用户发布的信息后,可以调用\n[subscribe](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#subscribe)\n方法订阅该 track。\n\n \n \n mClient.on('user-published', async function(userID, track) {\n const subscribedTrack = await mClient.subscribe(track)\n });\n \n\n与本地 track 相同,成功订阅远端 track 后,即可通过\n[play](https://developer.qiniu.com/rtc/9076/WebQNTrack#play) 方法播放。\n\n# 取消订阅远端 Track\n\n调用\n[unsubscribe](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#unsubscribe)\n方法取消订阅远端 track。\n\n \n \n await mClient.unsubscribe(tracks);\n \n\n# 自动订阅逻辑\n\n \n \n /**\n * 用生成的roomToken加入房间\n */\n async function joinRoom(roomToken) {\n // 创建QNRTCClient对象\n const client = QNRTC.createClient();\n // 需要先监听对应事件再加入房间\n autoSubscribe(client);\n // 传入RoomToken,加入房间\n await client.join(roomToken);\n console.log(\"joinRoom success!\");\n }\n \n /**\n * 订阅远端用户发布的音视频轨道\n */\n async function subscribe(client, tracks) {\n // 传入远端用户发布的音视频轨道执行订阅操作。\n // 订阅成功后异步返回订阅成功的远端音视频轨道\n const remoteTracks = await client.subscribe(tracks);\n // 选择页面上的一个元素作为父元素,播放远端的音视频轨\n const remoteElement = document.getElementById(\"remotetracks\");\n // 遍历返回的远端 Track,调用 play 方法完成在页面上的播放\n for (const remoteTrack of [...remoteTracks.videoTracks, ...remoteTracks.audioTracks]) {\n remoteTrack.play(remoteElement);\n }\n }\n \n // 这里的参数 client 是指刚刚初始化的 QNRTCClient 对象, 同上\n function autoSubscribe(client) {\n // 添加事件监听,当房间中出现新的 Track 时就会触发,参数是 trackInfo 列表\n client.on(\"user-published\", (userId,tracks) => {\n console.log(\"user-published!\", userId,tracks);\n subscribe(client, tracks)\n .then(() => console.log(\"subscribe success!\"))\n .catch(e => console.error(\"subscribe error\", e));\n });\n }\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频设备管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >设备管理\n\n# 设备管理\n\n最近更新时间: 2022-07-14 15:45:42\n\n桌面电脑中可能使用多个媒体设备,本篇文档介绍如何在 SDK 中管理媒体设备。\n\n# 摄像头\n\n可以通过\n[QNRTC.getCameras](https://developer.qiniu.com/rtc/9070/WebQNRTC#getCameras)\n方法来获取当前所有的摄像头信息。该方法返回值是一个数组,每个元素是一个\n[MediaDeviceInfo](https://developer.mozilla.org/en-\nUS/docs/Web/API/MediaDeviceInfo) 对象,包含了一个摄像头设备的详细信息。获取该对象之后,就可以通过该对象的 label\n属性获取设备的名称,通过 deviceId 属性获取设备的唯一标识。\n\n该方法获取是调用时所有的摄像头信息,有些外接摄像头可能存在频繁插入、拔出的情况,因此需要通过监听事件来获取最新的设备信息。代码举例如下:\n\n \n \n // 监听摄像头设备变化\n QNRTC.onCameraChanged = function(info) {\n \n // 获取到摄像头变化的信息\n console.log('camera changed!', info);\n \n // 获取变化后当前所有的摄像头信息\n const cameras = await QNRTC.getCameras();\n };\n \n\n获取到 deviceId 后,就可以在采集摄像头 Track 时,传入该参数,指定特定的摄像头采集了。代码举例如下:\n\n \n \n const mCameraTrack = await QNRTC.createCameraVideoTrack({\n cameraId: \"xxx\", // 传入前面获取到的 deviceId 值\n });\n \n\n# 麦克风\n\n麦克风的处理逻辑与摄像头类似。首先通过\n[QNRTC.getMicrophones](https://developer.qiniu.com/rtc/9070/WebQNRTC#getMicrophones)\n方法来获取到所有的麦克风设备,返回数据同样是 [MediaDeviceInfo](https://developer.mozilla.org/en-\nUS/docs/Web/API/MediaDeviceInfo) 对象数组,然后通过监听事件来获取麦克风设备的变化信息。\n\n代码举例如下:\n\n \n \n // 监听麦克风设备变化\n QNRTC.onMicrophoneChanged = function(info) {\n \n // 获取到麦克风变化的信息\n console.log('microphone changed!', info);\n \n // 获取变化后当前所有的麦克风信息\n const microphones = await QNRTC.getMicrophones();\n };\n \n // 指定 microphone 采集\n const mMicrophoneTrack = await QNRTC.createMicrophoneAudioTrack({\n microphoneId: \"xxx\" // 传入前面获取到的 deviceId 值\n });\n \n\n# 扬声器\n\n扬声器也可能有多个,获取的逻辑与摄像头、麦克风类似。主要区别是,我们不会指定扬声器采集,而是指定扬声器来播放指定的音频 Track。\n\n首先通过\n[QNRTC.getPlaybackDevices](https://developer.qiniu.com/rtc/9070/WebQNRTC#getPlaybackDevices)\n方法来获取所有的扬声器设备,返回数据同样是 [MediaDeviceInfo](https://developer.mozilla.org/en-\nUS/docs/Web/API/MediaDeviceInfo) 对象数组,然后通过监听事件来获取扬声器设备的变化信息。代码举例如下:\n\n \n \n // 监听扬声器设备变化\n QNRTC.onPlaybackDeviceChanged = function(info) {\n \n // 获取到扬声器变化的信息\n console.log('playback device changed!', info);\n \n // 获取变化后当前所有的扬声器信息\n const playbackDevices = await QNRTC.getPlaybackDevices();\n };\n \n\n获取到扬声器的设备信息后,就可以通过\n[setPlaybackDevice](https://developer.qiniu.com/rtc/9087/WebQNRemoteAudioTrack#setPlaybackDevice)\n方法来指定特定的扬声器来播放音频。代码举例如下:\n\n \n \n // 传入前面获取到的扬声器的 deviceId\n await remoteAudioTrack.setPlaybackDevice(\"xxx\");\n \n\n# 设备权限\n\n前面介绍了三个获取设备信息的方法,分别是:\n\n * getCameras\n * getMicrophones\n * getPlaybackDevices\n\n这里需要注意的是,浏览器对媒体设备做了权限管理,当还没有获取对应的媒体权限时,获取到的媒体设备信息可能不完整。\n\n因此,这三个方法都可以设置一个\n[skipPermissionCheck](https://developer.qiniu.com/rtc/9070/WebQNRTC#getCameras)\n参数。当该参数值为 false 时,SDK 在请求媒体设备信息前,先请求对应的媒体设备权限。当用户授予权限后,SDK\n就可以请求到完整的媒体设备信息并返回。如果此时用户没有授权,则方法会抛出错误。\n\n# 示例代码\n\n设备管理场景示例代码可参考 [API-Examples-Web/switchMediaDevices](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/switchMediaDevices)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频屏幕共享"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >屏幕共享\n\n# 屏幕共享\n\n最近更新时间: 2024-06-20 19:58:14\n\n屏幕共享也属于音视频采集的范畴,但是由于不同设备屏幕分享功能的实现逻辑有一定区别,因此单独整理这篇文档来说明。\n\n# 屏幕共享视频 Track\n\n可以通过\n[QNRTC.createScreenVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createScreenVideoTrack)\n来创建屏幕共享视频\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/9092/WebQNScreenVideoTrack)。\n\n \n \n const mScreenVideoTrack = await QNRTC.createScreenVideoTrack({\n encoderConfig: {\n width: 1280, // 画面宽度\n height: 720, // 画面高度\n frameRate: 10, // 视频帧率\n bitrate: 1500 // 码率 \n },\n screenVideoTag: \"screenVideo\"\n });\n \n\n可以看到,这里的配置项与创建摄像头视频 track 时很类似,但是也有一些屏幕共享独有的配置项,详细可以参考\n[QNScreenVideoTrackConfig](https://developer.qiniu.com/rtc/9056/WebQNScreenVideoTrackConfig)。\n\n> 注意该方法是 SDK 针对不同设备抽象出来的共有的方法,目前在桌面版 Chrome(72)、Firefox(66)、Safari(13) 中均可支持。\n\n# Chrome 插件采集\n\n如果 Chrome 低于 72 版本,此时浏览器没有提供屏幕采集的接口,如果要在该版本的浏览器中实现屏幕分享,可以使用 Chrome 插件采集的方式。\n\n使用 Chrome 插件采集,需要首先安装我们的 Chrome 插件。安装方式有两种,下面来看具体操作。\n\n第一种,访问 [Chrome 网上应用店](https://chrome.google.com/webstore/detail/qnrtc-screen-\ncapture/kelbkaklgngbpjmfopeiclhfmpgnkkpe?hl=zh-CN) 直接安装。\n\n如果本地环境无法访问 Google,则可以采用下面的开发者模式安装。\n\n第二种,开发者模式安装。\n\n这个安装方法是目前唯一适用于各个情况下的安装方法。首先下载 [插件 zip 包](http://sdk-\nrelease.qiniushawn.top/QNRTCWebExtension-1.0.1.zip) ,下载完成后将该 zip 包解压到一个文件夹中。之后\nChrome 访问 `chrome://extensions/` 或者`右上角-更多工具-拓展程序`,打开拓展程序页面。\n\n\n\n如图所示打开开发者模式,点击 加载已解压的扩展程序,选择我们刚刚解压到的文件夹中的 CaptureExtension\n文件夹完成安装。安装完成后,需要重新启动 Chrome。\n\n安装成功后,可以使用如下[方法](https://developer.qiniu.com/rtc/9070/WebQNRTC#isChromeExtensionAvailable)检测插件是否运行正常:\n\n \n \n QNRTC.isChromeExtensionAvailable()\n .then((result) => {\n console.log(\"is chrome extension available: \", result)\n })\n .catch((e) => {\n console.log(\"error\", e)\n })\n \n\n如果插件运行正常,下一步就是使用插件来创建屏幕分享 Track 了。使用的方法与正常一致,注意参数的区别。\n\n \n \n import { QNChromeExtensionSourceType } from \"qnweb-rtc\";\n \n const mScreenVideoTrack = await QNRTC.createScreenVideoTrack({\n chromeExtensionSourceType: QNChromeExtensionSourceType.ALL\n });\n \n\n这里的 chromeExtensionSourceType 实际上是指定数据源的意思,这里指定为 ALL 表示所有数据源。调用该接口后,Chrome\n会弹窗列举出所有数据源供用户选择。\n\n# 系统音频 track\n\n如果想要采集的音频来源不是麦克风,而是系统音频,如浏览器某个标签页中正在播放的音频,这时可以在采集屏幕共享 track 的方法\n[QNRTC.createScreenVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createScreenVideoTrack)\n中指定\n[withAudio](https://developer.qiniu.com/9070/WebQNRTC#createScreenVideoTrack)\n参数来采集系统音频 track。该 track 对象类型为\n[QNLocalAudioTrack](https://developer.qiniu.com/rtc/9089/WebQNLocalAudioTrack)。\n\n \n \n const [mScreenVideoTrack, mScreenAudioTrack] = await QNRTC.createScreenVideoTrack({\n encoderConfig: {\n width: 1280, // 画面宽度\n height: 720, // 画面高度\n frameRate: 10, // 视频帧率\n bitrate: 1500 // 码率 \n },\n screenVideoTag: \"screenVideo\",\n screenAudioTag: \"screenAudio\"\n },\n \"enable\"\n );\n \n\n当调用该方法后,浏览器会弹出原生 UI,需要用户单独选择 `分享音频` 才能实际采集到系统声音。浏览器原生 UI 如下图所示:\n\n\n\n根据用户是否做了单独选择的操作,有不同的处理策略,详细可参考\n[withAudio](https://developer.qiniu.com/rtc/9070/WebQNRTC#createScreenVideoTrack)\n参数文档。\n\n需要注意几点:\n\n * 分别通过 `screenVideoTag` 和 `screenAudioTag` 来设置屏幕分享视频和系统音频的 tag\n * 通过第二个参数 `withAudio` 设置为 `enable` 来指定采集系统音频\n * 指定采集系统音频后,方法返回值变为拥有两个元素的数组,第一个元素为屏幕分享视频 track,第二个元素为系统音频 track\n * 目前仅 Chrome 支持采集系统声音\n\n# 示例代码\n\n屏幕分享场景示例代码可参考 [API-Examples-Web/screenSharing](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/screenSharing)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >CDN 转推\n\n# CDN 转推\n\n最近更新时间: 2022-07-14 15:46:06\n\n本部分介绍了 CDN 转推的使用姿势及其应用场景。\n\n# 应用场景\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:单路流直播、多路流合流直播以及两者结合可切换的直播场景。\n\n下面将会就三种场景的的使用姿势进行说明。\n\n# 实现分析\n\n## 设置监听\n\n在进行 CDN 转推之前,需要设置 CDN 转推流的状态变化事件监听 [transcoding-livestreaming-state-\nchanged](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#transcoding-\nlivestreaming-state-changed) 和 [direct-livestreaming-state-\nchanged](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#direct-\nlivestreaming-state-changed)。\n\n \n \n mclient.on('direct-livestreaming-state-changed', function(streamID, state) {\n // 单路转推状态变化\n });\n \n mclient.on('transcoding-livestreaming-state-changed', function(streamID, state) {\n // 合流转推状态变化\n });\n \n\n在设置好监听后,便可以基于业务场景进行`单路转推任务`或者`合流转推任务`的创建了。\n\n## 单路流直播场景\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n场景示意图如下:\n\n\n\n注意:如果主播有两路视频流(采集+录屏)需要合流转推,请参考多路流合流直播场景实现\n\n单路流转推场景主要实现步骤如下:\n\n### 创建单路转推任务\n\n调用\n[startDirectLiveStreaming](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#startDirectLiveStreaming)\n来创建单路转推任务。\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9049/WebQNDirectLiveStreamingConfig)\n用于配置单路转推的相关信息,包括推流地址、参与 CDN 转推的音视频轨。\n\n创建转推任务的示例代码如下:\n\n \n \n const directLiveStreamingConfig = {\n videoTrack: videoTrack, // 设置单路流中的视频轨,仅支持一路视频的设置,重复设置会被覆盖\n audioTrack: audioTrack, // 设置单路流中的音频轨,仅支持一路音频的设置,重复设置会被覆盖\n streamID: \"room1\", // 设置 stream id,该 id 为该单路转推任务的唯一标识符\n url: 'rtmp://...' // 设置推流地址\n }\n // 开始进行单路转推\n await mClient.startDirectLiveStreaming(directLiveStreamingConfig);\n \n\n单路转推任务创建成功后,会触发上述 `direct-livestreaming-state-changed`\n事件,成功开启了单路流转推,可以通过相应的播放链接拉取直播流进行观看。\n\n**注意:**\n\n 1. **QNDirectLiveStreamingConfig 仅支持配置一路视频轨和一路音频轨,重复设置会被覆盖**\n\n### 停止单路转推任务\n\n可以通过如下方式实现单路转推任务的停止:\n\n \n \n await mClient.stopDirectLiveStreaming(streamID);\n \n\n## 多路流合流直播场景\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n场景示意图如下:\n\n\n\n为了实现该场景,首先,需要了解下相关配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/api/9086/WebQNTranscodingLiveStreamingConfig) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/api/9065/WebQNTranscodingLiveStreamingTrack) 用于配置参与 CDN 合流的每一路媒体 track 在合流画布中的位置、大小等信息。\n\n了解上述概念后,该场景的主要实现步骤如下:\n\n### 开启合流直播\n\n#### 创建 QNTranscodingLiveStreamingConfig\n\n \n \n const backgroundTranscodingLiveStreamingImage: QNTranscodingLiveStreamingImage = {\n x: 0,\n y: 0,\n width: 600,\n height: 480,\n url: \"background url\"\n }\n const watermarksTranscodingLiveStreamingImages: QNTranscodingLiveStreamingImage[] = [{\n x: 0,\n y: 0,\n width: 100,\n height: 100,\n url: \"watermark url\"\n }]\n const transcodingLiveStreamingConfig = {\n streamID: \"mstreamid-1\", // 设置 stream id,该 id 为合流任务的唯一标识符\n url: \"rtmp://...\", // 设置合流任务的推流地址\n width: 600, // 设置合流画布的宽度\n height: 480, // 设置合流画布的高度\n videoFrameRate: 20, // 设置合流任务的视频帧率\n bitrate: 1000, // 设置合流任务的码率,单位: kbps\n renderMode: QNRenderMode.ASPECT_FILL, // 设置合流任务的默认画面填充方式\n background: backgroundTranscodingLiveStreamingImage, // 设置合流画布背景图片的x轴y轴宽高和url信息,图片仅支持 HTTP\n watermarks: watermarksTranscodingLiveStreamingImages // 设置合流合流任务的水印的x轴y轴宽高和url信息\n }\n await mClient.startTranscodingLiveStreaming(transcodingLiveStreamingConfig); // 开始转推\n \n\n#### 设置合流布局\n\n合流任务创建成功之后,就可以基于用户发布的 track 进行合流布局的配置了。这里首先需要了解\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/9065/WebQNTranscodingLiveStreamingTrack)\n的概念。操作示例代码如下:\n\n \n \n const transcodingLiveStreamingTracks: QNTranscodingLiveStreamingTrack[] = [{\n trackID: \"xxx\", // 设置待合流 track id\n x: 220, // 设置 track 画面在合流画面中位置的 x 轴坐标\n y: 220, // 设置 track 画面在合流画面中位置的 y 轴坐标\n width: 200, // 设置 track 画面在合流画面中位置宽度\n height: 200 // 设置 track 画面在合流画面中位置高度\n zOrder: 100, // 设置 track 画面在合流画面中的 zOrder 层级\n renderMode: QNRenderMode.ASPECT_FILL, // track 画面合流时的填充方式\n }]\n \n\n通过上述代码创建\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/9065/WebQNTranscodingLiveStreamingTrack)\n,就可以进行布局的配置了:\n\n \n \n await mClient.setTranscodingLiveStreamingTracks(\"mstreamid-1\", transcodingLiveStreamingTracks);\n \n\n当期望取消某路合流布局时,可以通过如下调用实现:\n\n \n \n await mClient.removeTranscodingLiveStreamingTracks(\"mstreamid-1\", transcodingLiveStreamingTracks);\n \n\n### 停止合流直播\n\n可以通过如下方式实现合流转推任务的停止:\n\n \n \n await mClient.stopTranscodingLiveStreaming(streamID);\n \n\n合流转推任务停止成功后,会触发上述 `transcoding-livestreaming-state-changed` 事件,\n\n## 单路流、多路流合流二者切换的场景\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们引入 `serialnum` 的概念以实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9049/WebQNDirectLiveStreamingConfig) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9086/WebQNTranscodingLiveStreamingConfig) 两种任务场景推流地址需要保持一致以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,值越大,优先级越高,便不会出现抢流的现象。也基于此,合流任务必须使用自定义合流任务,以便自定义推流地址。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,监听 `transcoding-livestreaming-state-changed`事件,当返回 `STARTED` 后执行 `mClient.stopDirectLiveStreaming(streamID)` 来停止单路转推任务\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,监听 `direct-livestreaming-state-changed`事件,当返回 `STARTED` 后执行 `mClient.stopTranscodingLiveStreaming(streamID)` 来停止合流转推任务\n\n通过上述方式,即可实现单路流直播、多路流合流直播之间的切换。\n\n# 注意事项\n\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,值越大,优先级越高**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖**\n\n# 示例代码\n\n单路流直播场景的示例代码可参考 [API-Examples-\nWeb/directLivestreaming](https://github.com/pili-engineering/QNRTC-\nWeb/tree/master/API-Examples-Web/directLivestreaming) 多路流合流直播场景的示例代码可参考[API-\nExamples-Web/transcodingLivestreaming](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/transcodingLivestreaming)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐/音效混音(新版)"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >背景音乐/音效混音(新版)\n\n# 背景音乐/音效混音(新版)\n\n最近更新时间: 2022-12-01 17:43:17\n\n本部分介绍背景音乐混音功能的使用\n\n> 注意,自 SDK 4.2.0\n> 版本开始,增加了新版本的背景音乐混音功能,本篇文档介绍新版本背景音乐混音的用法。如果想要查看旧版本背景音乐混音的用法,可以参考\n> [背景音乐混音(旧版)](https://developer.qiniu.com/rtc/9470/background-music-mix-web)。\n\n# 背景音乐混音\n\n用户可在连麦过程中通过混音功能添加背景音乐,支持 MP3、AAC 等格式的本地或在线音乐,使用方式如下:\n\n## 创建 createAudioMusicMixer\n\nSDK 当前仅支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n的混音功能,因此,可以通过\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/12353/WebQNAudioMusicMixer)\n对象。\n\n \n \n const filePath = \"/sdcard/music/example.mp3\";\n const musicAudioMixer = mMicrophoneAudioTrack.createAudioMusicMixer(filePath)\n \n\n`createAudioMusicMixer` 不仅支持文件地址,同时还支持 AudioBuffer 与 File 类型。\n\n## 音乐控制\n\n在创建了\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/12353/WebQNAudioMusicMixer)\n实例后,可以通过该实例提供的混音控制接口进行混音操作的控制,使用代码参考如下:\n\n \n \n // 开始混音,成功后会触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.start();\n // 停止混音,成功后会触发 QNAudioMusicMixerState.STOPPED 状态的回调\n mAudioMixer.stop();\n // 恢复混音,成功后会触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.resume();\n // 暂停混音,成功后会触发 QNAudioMusicMixerState.PAUSED 状态的回调\n mAudioMixer.pause();\n // 跳到指定位置进行混音,成功后回触发 QNAudioMusicMixerState.MIXING 状态的回调\n mAudioMixer.seekTo(positionMs);\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/12353/WebQNAudioMusicMixer)。\n\n> 当前**仅支持一个麦克风 track 混一路音频** ,重复针对同一个麦克风 track 创建不同的\n> [QNAudioMusicMixer](https://developer.qiniu.com/rtc/12353/WebQNAudioMusicMixer)\n> 并执行 start 操作,后面的会覆盖前面的,即以后执行 start 的音频混音控制器为准进行混音。\n\n# 多音效混音\n\n## 创建 createAudioEffectMixer\n\nSDK 当前仅支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n的多重音效混音功能,可以通过\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n接口来创建 [QNAudioEffectMixer](https://developer.qiniu.com/rtc/12357/background-\nmusic-mix-web-new/rtc/12350/WebQNAudioEffectMixer) 对象。\n\n \n \n const filePath = \"/sdcard/music/example.mp3\";\n const audioEffectMixer = mMicrophoneAudioTrack.createAudioEffectMixer()\n \n\n`createAudioEffectMixer` 不仅支持文件地址,同时还支持 AudioBuffer 与 File 类型。\n\n## 创建 QNAudioEffect\n\n[QNAudioEffect](https://developer.qiniu.com/rtc/12352/WebQNAudioEffect)\n为音效文件的配置类,可通过\n[QNAudioEffectMixer.createAudioEffect](https://developer.qiniu.com/rtc/12350/WebQNAudioEffectMixer#createAudioEffect)\n接口进行创建,每一个音效文件都需对应一个\n[QNAudioEffect](https://developer.qiniu.com/rtc/12352/WebQNAudioEffect)\n实例,使用代码参考如下:\n\n \n \n const filePath = \"/sdcard/effect.mp3\";\n const effectID = \"test\";\n const audioEffect = mAudioEffectMixer.createAudioEffect(effectID, filePath);\n \n\n**其中,effectID 为音效文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音效混音操作的依据,需保证唯一。**\n\n## 混音控制\n\n \n \n // 开始指定音效混音\n mAudioEffectMixer.start(audioEffect.getID());\n // 停止指定音效混音\n mAudioEffectMixer.stop(audioEffect.getID());\n // 恢复指定音效混音\n mAudioEffectMixer.resume(audioEffect.getID());\n // 暂停指定音效混音\n mAudioEffectMixer.pause(audioEffect.getID());\n // 停止所有正在混音的音效\n mAudioEffectMixer.stopAll();\n // 暂停所有正在混音的音效\n mAudioEffectMixer.pauseAll();\n // 恢复所有已经暂停混音的音效\n mAudioEffectMixer.resumeAll();\n \n\n# 音量控制\n\n混音场景下,主要包含三种音量设置:麦克风混音音量、音效/音乐混音音量、本地播放音量。三种音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.setVolume](https://developer.qiniu.com/rtc/9064/WebQNMicrophoneAudioTrack#setVolume) 接口进行配置。\n\n * **音效混音音量** :可以通过 [QNAudioEffectMixer.setVolume](https://developer.qiniu.com/rtc/12350/WebQNAudioEffectMixer#setVolume) 和 [QNAudioEffectMixer.setAllEffectsVolume](https://developer.qiniu.com/rtc/12350/WebQNAudioEffectMixer#setAllEffectsVolume) 接口分别对指定音效和所有音效进行音量配置。\n\n * **背景音乐混音音量** :可以通过 [QNAudioMusicMixer.setMixingVolume](https://developer.qiniu.com/rtc/12353/WebQNAudioMusicMixer#setMixingVolume) 进行音量设置。\n\n * **本地播放音量** :可以通过 [QNMicrophoneAudioTrack.setPlayingVolume](https://developer.qiniu.com/rtc/9064/WebQNMicrophoneAudioTrack#setPlayingVolume) 接口进行配置,需要注意的是,播放音量是基于混音后的音频进行调整的,会受到混音音量调整的影响。\n\n参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setVolume(0.5); // 设置麦克风采集(混音)音量\n mMicrophoneAudioTrack.setPlayingVolume(0.5); // 设置混音后本地播放的音量\n mAudioEffectMixer.setVolume(audioEffect.getID(), 0.5); // 设置指定音效的混音音量\n mAudioEffectMixer.setAllEffectsVolume(0.5); // 设置所有音效的混音音量\n mAudioMusicMixer.setMixingVolume(0.5); // 设置背景音乐的混音音量 \n \n \n\n# 耳返\n\n若您在混音场景下,有开启返听的需要,则可以通过\n[QNMicrophoneAudioTrack.setEarMonitorEnabled](https://developer.qiniu.com/rtc/9064/WebQNMicrophoneAudioTrack#setEarMonitorEnabled)\n接口进行开启,参考代码如下:\n\n \n \n mMicrophoneAudioTrack.setEarMonitorEnabled(true); // 开启返听\n \n\n> 为达到最佳体验,建议在佩戴耳机的情况下使用该功能\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐混音(旧版)"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >背景音乐混音(旧版)\n\n# 背景音乐混音(旧版)\n\n最近更新时间: 2022-12-01 18:12:15\n\n本部分介绍背景音乐混音功能的使用\n\n> 注意,自 SDK 4.2.0\n> 版本开始,发布了新版本的混音功能,新版本混音功能支持多重音效且功能更强大,具体接入参考[混音功能(新版)](https://developer.qiniu.com/rtc/12357/background-\n> music-mix-web-new)。\n\n用户可在连麦过程中通过混音功能添加背景音乐,支持 MP3、AAC 等格式的本地或在线音乐,使用方式如下:\n\n# 创建 QNAudioMixer\n\nSDK 当前仅支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n的混音功能,因此,可以通过\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n创建 [QNAudioMixer](https://developer.qiniu.com/rtc/api/9066/WebQNAudioMixer)\n对象。\n\n \n \n const filePath = \"/sdcard/music/example.mp3\";\n const mAudioMixer = mMicrophoneAudioTrack.createAudioMixer(filePath)\n \n\n`createAudioMixer` 不仅支持文件地址,同时还支持 AudioBuffer 与 File 类型。\n\n# 混音控制\n\n在创建了 [QNAudioMixer](https://developer.qiniu.com/rtc/api/9066/WebQNAudioMixer)\n实例后,可以通过该实例提供的混音控制接口进行混音操作的控制,使用代码参考如下:\n\n \n \n // 开始混音\n mAudioMixer.start();\n // 停止混音\n mAudioMixer.stop();\n // 恢复混音\n mAudioMixer.resume();\n // 暂停混音\n mAudioMixer.pause();\n // 设置混音音量,默认值1\n // 0表示静音 1表示原始音量 \n // 建议设置范围:0-10 之间的浮点数\n mAudioMixer.setPlayingVolume(volume);\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioMixer](https://developer.qiniu.com/rtc/api/9066/WebQNAudioMixer)。\n\n> 当前**仅支持一个麦克风 track 混一路音频** ,重复针对同一个麦克风 track 创建不同的\n> [QNAudioMixer](https://developer.qiniu.com/rtc/api/9066/WebQNAudioMixer) 并执行\n> start 操作,后面的会覆盖前面的,即以后执行 start 的音频混音控制器为准进行混音。\n\n## 示例代码\n\n背景音乐混音场景的示例代码可参考 [API-Examples-Web/audioMixing](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/audioMixing)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流(新版)"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >视频大小流(新版)\n\n# 视频大小流(新版)\n\n最近更新时间: 2022-11-22 15:27:59\n\n本部分介绍视频大小流的使用方式。\n\n> 注意,自 SDK 4.0.9 版本开始,增加了新版本的大小流功能,本篇文档介绍新版本大小流的用法。如果想要查看旧版本大小流的用法,可以参考\n> [视频大小流(旧版)](https://developer.qiniu.com/rtc/9472/video-size-flow-web)。\n\n# 功能介绍\n\n\n\n当用户 A 开启大小流时,会发送两个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n> 新版本大小流功能开启后,会在原视频流的基础上创建一路小流,大流和小流共享同一个 Track,一并发布到房间。\n\n# 开启大小流\n\n在创建视频 track 时,可以通过传入配置参数 lowStreamConfig 来指定小流的配置,该参数接口类型如下:\n\n \n \n interface QNLowStreamConfig {\n scaleResolutionDownBy: number; // 小流缩放比例\n bitrate: number; // 小流码率(kbps)\n }\n \n\n下面是一个实际发送大小流的例子:\n\n \n \n // 创建一个摄像头 track\n const cameraTrack = await QNRTC.createCameraVideoTrack({\n encoderConfig: {\n width: 640, // 大流的宽\n height: 480, // 大流的高\n lowStreamConfig: {\n scaleResolutionDownBy: 2, // 小流缩放比例,值为 2 表示小流分辨率是大流配置的 1/2\n bitrate: 100 // 小流码率\n }\n }\n });\n \n\n# 订阅大小流\n\n在选择订阅小流前,首先需要知道目前 track 是否开启了大小流。这个信息可以从\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/9060/WebQNRemoteVideoTrack)\n的 [isLowStreamEnabled](https://developer.qiniu.com/rtc/10566/video-size-flow-\nweb-new/rtc/9060) 属性中获取。\n\n当确认该路流开启了大小流后,可以通过接口 `QNRemoteVideoTrack.setLowStream` 接口来决定是否切换大流和小流。\n\n当调用接口指定切换小流后,因为各种原因(发布方网络差等)可能发生没有成功切换的情况。如果需要明确知道是否切换成功,可以通过监听 `low-stream-\nstate-changed` 获取该信息。\n\n代码举例如下:\n\n \n \n // 监听远端用户发布 track\n mClient.on('user-published', async function(userID, remoteTracks){\n \n // 订阅该 track\n const {videoTracks, audioTracks} = await client.subscribe(remoteTracks);\n \n for (const track of videoTracks) {\n \n // 检查该 track 是否开启了大小流\n if (track.isLowStreamEnabled) {\n \n // 监听事件,判断当前使用的是大流还是小流。回调布尔值,true 表示正在使用小流,false 表示使用的是大流\n track.on(\"low-stream-state-changed\", (state: boolean) => { });\n \n // 传入布尔值,true 表示切换成小流,false 表示切换成大流\n track.setLowStream(true);\n }\n }\n });\n \n\n# 注意事项\n\n * 浏览器兼容性:目前仅桌面版 Chrome(78 及以上)和 Safari(14 及以上) 支持\n * 发布多路 video track 时,同一时间仅支持其中一路开启大小流\n * 小流的分辨率不可太低,否则浏览器编码无法支持。实际测试,Chrome 下当小流分辨率小于 200*150 时,小流会生成失败\n\n# 新旧版本兼容\n\n大小流新版本和旧版本在使用上主要的区别有下面几点:\n\n * 旧版本大小流会发布三路流,新版本发送两路\n * 旧版本接口和新版本接口完全不同,两套接口并行\n\n如果完全使用旧版本的大小流,或者完全使用新版本的大小流,均没有问题。但是如果需要在使用旧版本的大小流的客户端和新版本的大小流的客户端之间沟通,则需要注意如下几点:\n\n * 不可在同一个客户端内同时使用新旧两套接口\n * 一个客户端使用旧版本接口发布大小流,另一个客户端可以使用新版本接口订阅(只能指定小流,MEDIUM 流无法指定)\n * 一个客户端使用新版本接口发布大小流,另一个客户端可以使用旧版本接口订阅(此时没有 MEDIUM 流,不可指定该选项)\n\n# 示例代码\n\n视频大小流示例代码可参考 [API-Examples-Web/videoDualStream](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/videoDualStream)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流(旧版)"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >视频大小流(旧版)\n\n# 视频大小流(旧版)\n\n最近更新时间: 2022-03-14 11:40:00\n\n本部分介绍视频大小流的使用方式。\n\n> 注意,自 SDK 4.0.9 版本开始,发布了新版本的大小流功能,新版本大小流功能更加丰富,使用更加简单,推荐使用新版本,具体接入参考\n> [视频大小流(新版)](https://developer.qiniu.com/rtc/10566/video-size-flow-web-new)。\n\n# 功能介绍\n\n\n\n当用户 A 开启大小流时,会发送多个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n> 旧版本大小流功能开启后,会在原视频流的基础上,创建一个一路中流,一路小流,三路流共享同一个 Track,一并发布到房间。\n\n# 开启大小流\n\n在创建音视频 track 时,可以通过 track config 提供的 `isMultiProfileEnabled` 接口来启用大小流功能,以\nQNCameraVideoTrack 为例,其启用方式如下:\n\n \n \n QNRTC.createCameraVideoTrack({\n encoderConfig: {\n isMultiProfileEnabled: true\n }\n });\n \n\n# 订阅大小流\n\n订阅端可以通过\n[QNRemoteVideoTrack.isMultiProfileEnabled](https://developer.qiniu.com/rtc/api/9060/WebQNRemoteVideoTrack#isMultiProfileEnabled)\n属性判断远端用户是否发布大小流。若接口返回 true,则可通过\n[QNRemoteVideoTrack.setProfile](https://developer.qiniu.com/rtc/api/9060/WebQNRemoteVideoTrack#setProfile)\n来订阅指定的 QNTrackProfile。\n\n示例代码如下:\n\n \n \n if (remoteVideoTrack.isMultiProfileEnabled) {\n remoteVideoTrack.setProfile(QNTrackProfile.MEDIUM);\n }\n \n\n> **注意:setProfile 接口仅是设置预期的流等级,并不代表实际的订阅等级,若实际发送端还未发送指定等级的流,则将无法订阅到指定的\n> profile**\n\n可以监听 [QNRemoteVideoTrack.profile-\nchanged](https://developer.qiniu.com/rtc/api/9060/WebQNRemoteVideoTrack#profile-\nchanged) 当订阅指定 profile 生效后,将通过事件告知,具体使用方式如下:\n\n \n \n track.on('profile-changed',function(profile){\n // 当订阅的 profile 发生改变时触发,该 profile 为当前实际订阅到的 profile\n console.log('profile-changed',profile)\n })\n \n\n# 注意事项\n\n * **开启大小流功能设置编码宽高最低为 1280 x 720**\n * **目前仅支持在发送端发布单路视频 track 的场景下,使用大小流功能**\n * **对于开启大小流的用户,建议保证有良好的网络环境,保证多流发送质量**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频跨房媒体转发"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >跨房媒体转发\n\n# 跨房媒体转发\n\n最近更新时间: 2022-07-14 15:46:31\n\n自 v4.1.0 版本,Web SDK 新增跨房媒体转发功能。\n\n跨房媒体转发允许主播不离开自己的所在的房间,仅通过信令的操作,转发自己的音视频到其他的房间。七牛 RTC SDK\n支持同时转发多路至多个房间(具体按照设备状况以及网络状况决定)。依赖此功能,可以很方便的实现直播过程中的连麦,小班课等业务。\n\n# 场景角色配置\n\n场景 [QNClientMode](https://developer.qiniu.com/rtc/11357/QNClientMode-Web):\n\n * `QNClientMode.LIVE`: 用于互动直播场景,可以通过设置角色来控制权限。主播可以发布和订阅音视频,观众仅能订阅音视频。\n * `QNClientMode.RTC`: 用于通信场景,所有人都可以发布自己的音视频,不可设置角色。\n\n角色 [QNClientRole](https://developer.qiniu.com/rtc/11358/QNClientRole-Web):\n\n * `QNClientRole.BROADCASTER`: 主播角色,拥有发布和订阅音视频的权限。\n * `QNClientRole.AUDIENCE`: 观众角色,仅有订阅音视频的权限。\n\n \n \n const client = QNRTC.createClient();\n \n await client.setClientMode(QNClientMode.LIVE);\n await client.setClientRole(QNClientRole.BROADCASTER)\n \n await client.join(\"xxx\");\n \n\n注意,场景仅可在加入房间之前设置,角色在加入房间之前或者之后均可设置。\n\n# 跨房媒体转发\n\n针对跨房媒体转发,SDK\n提供了开始([startMediaRelay](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#startMediaRelay))、更新([updateMediaRelay](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#updateMediaRelay))和停止([stopMediaRelay](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#stopMediaRelay))三个接口。\n\n \n \n // 转发目标房间名称及房间 token\n const relayConfig = { destRoomInfos: [\n { roomName: \"destRoomName1\"; roomToken: \"destRoomToken1\"; },\n { roomName: \"destRoomName2\"; roomToken: \"destRoomToken2\"; },\n ]}\n \n // 开始转发\n const relayResult = await client.startMediaRelay(relayConfig);\n \n\n开始转发成功后,会自动将自己在原房间发布的所有媒体流发布到目标房间中。目标房间的用户会正常收到新用户加入和新用户发布新媒体流的通知。\n\n更新转发的接口使用方法类似,只需要指定想要转发的目标房间信息即可。此方法为全量更新,正在跨房媒体转发中却未被包含在参数中的房间,将停止媒体转发。\n\n \n \n const relayConfig = { destRoomInfos: [\n { roomName: \"destRoomName2\"; roomToken: \"destRoomToken2\"; },\n { roomName: \"destRoomName3\"; roomToken: \"destRoomToken3\"; },\n ]}\n \n // 更新转发\n const relayResult = await client.updateMediaRelay(relayConfig);\n \n\n最后就是停止转发。\n\n \n \n const relayResult = await client.stopMediaRelay();\n \n\n# 转发状态通知\n\n除了在调用媒体转发接口后的 promise 返回后,如果转发过程中发生各种情况,可以通过监听 [media-relay-state-\nchanged](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#media-relay-\nstate-changed) 事件获取转发状态通知。\n\n \n \n client.on(\"media-relay-state-changed\", (roomName: string, state: QNMediaRelayState) => {\n // ...\n });\n \n\n跨房媒体转发状态[QNMediaRelayState](https://developer.qiniu.com/rtc/11353/QNMediaRelayState-\nWeb)\n\n * 成功 SUCCESS(0)\n * 主动退出 STOPPED(1)\n * 无效token INVALID_TOKEN(2)\n * 目标房间不存在 NO_ROOM(3)\n * 目标房间已关闭 ROOM_CLOSED(4)\n * 目标房间存在相同用户名的用户 PLAYER_EXISTED(5)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话质量统计"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >通话质量统计\n\n# 通话质量统计\n\n最近更新时间: 2022-07-14 15:46:38\n\n本文主要介绍 SDK 如何对通话过程中的网络以及音视频的质量进行监控。\n\n# 获取网络质量\n\n在**加入了房间** 并且**已经发布或者订阅了音视频 Track** 后,可通过\n[QNRTCClient.getNetworkQuality](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#getNetworkQuality)\n接口获取本地网络状态,通过\n[QNRTCClient.getUserNetworkQuality](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#getUserNetworkQuality)\n获取远端网络状态。\n\n其中,质量等级是基于当前用户通话过程中的网络、丢包以及 RTT 综合评估得出的,获取到的质量等级可参考\n[QNNetworkGrade](https://developer.qiniu.com/rtc/9058/WebQNNetworkQuality)。\n\n# 获取音视频媒体数据统计\n\nSDK 中统一通过不同 Track 中的 getStats 方法来获取相关的音视频媒体数据统计,具体来说包含下面四种情况。\n\n第一,本地视频数据统计\n[QNLocalVideoTrack.getStats](https://developer.qiniu.com/rtc/9061/WebQNLocalVideoTrack#getStats),此时获取到\n[QNLocalVideoTrackStats](https://developer.qiniu.com/rtc/9051/WebQNLocalVideoTrackStats)\n对象,内容如下。\n\n属性| 描述 \n---|--- \nprofile|\n当前所统计视频的[质量等级](https://developer.qiniu.com/rtc/9050/WebQNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/9472/video-size-flow-web)文档 \nuplinkFrameRate| 本地视频上行的帧率 \nuplinkBitrate| 本地视频上行的码率 \nuplinkRTT| 本地视频上行的网络延时 \nuplinkLostRate| 本地视频上行的丢包率 \n \n第二,本地音频数据统计\n[QNLocalAudioTrack.getStats](https://developer.qiniu.com/rtc/9089/WebQNLocalAudioTrack#getStats),此时获取到\n[QNLocalAudioTrackStats](https://developer.qiniu.com/rtc/9083/WebQNLocalAudioTrackStats)\n对象,内容如下。\n\n属性| 描述 \n---|--- \nuplinkBitrate| 本地音频上行的码率 \nuplinkRTT| 本地音频上行的网络延时 \nuplinkLostRate| 本地音频上行的丢包率 \n \n第三,远端视频数据统计\n[QNRemoteVideoTrack.getStats](https://developer.qiniu.com/rtc/9060/WebQNRemoteVideoTrack#getStats),此时获取到\n[QNRemoteVideoTrackStats](https://developer.qiniu.com/rtc/9380/WebQNRemoteVideoTrackStats)\n对象,内容如下。\n\n属性| 描述 \n---|--- \nprofile|\n当前订阅的视频的[质量等级](https://developer.qiniu.com/rtc/9050/WebQNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/9472/video-size-flow-web)文档 \ndownlinkFrameRate| 本地拉取远端视频时下行的帧率 \ndownlinkBitrate| 本地拉取远端视频时下行的码率 \ndownlinkLostRate| 本地拉取远端视频时下行的丢包率 \nuplinkRTT| 远端视频上行的网络延时 \nuplinkLostRate| 远端视频上行的丢包率 \n \n第四,远端音频数据统计\n[QNRemoteAudioTrack.getStats](https://developer.qiniu.com/rtc/9087/WebQNRemoteAudioTrack#getStats),此时获取到\n[QNRemoteAudioTrackStats](https://developer.qiniu.com/rtc/9093/WebQNRemoteAudioTrackStats)\n对象,内容如下。\n\n属性| 描述 \n---|--- \ndownlinkBitrate| 本地拉取远端音频时下行的码率 \ndownlinkLostRate| 本地拉取远端音频时下行的丢包率 \nuplinkRTT| 远端音频上行的网络延时 \nuplinkLostRate| 远端音频上行的丢包率 \n \n# 通话音量监听\n\n在音频连麦的过程中,我们经常有这种需求,展示当前是谁在发言(比如当某人说话时就在他的麦克风图标上做高亮处理)。为了实现这些需求,我们就需要实时地去获取音频\nTrack 中正在播放的音频数据。\n\n可以通过定时调用[ QNLocalAudioTrack.getVolumeLevel\n](https://developer.qiniu.com/rtc/9089/WebQNLocalAudioTrack#getVolumeLevel)| [\nQNRemoteAudioTrack.getVolumeLevel\n](https://developer.qiniu.com/rtc/9087/WebQNRemoteAudioTrack#getVolumeLevel)方法来监听房间内用户说话音量。实现的核心代码逻辑如下:\n\n \n \n // 用户进入房间,发布tracks时,记录当前用户发布出去的tracks\n const publishTracks = xxx;\n // 远端用户发布tracks时,当前用户在订阅远端用户后\n // 把远端用户的track添加到subscribedTracks中\n // 自动订阅远端用户已发布的tracks也需要加入到subscribedTracks中\n const subscribedTracks = xxx;\n // 把是音频的tracks过滤出来\n const audioTracks = [...publishTracks, ...subscribeTracks].filter( track: QNTrack => {\n track.isAudio();\n });\n // 设置定时器,定时执行音频tracks的getVolumeLevel()方法,获取对应track的音量以及处理\n const time = 800;\n setInterval(() => {\n audioTracks.forEach( track: QNLocalAudioTrack | QNRemoteAudioTrack => {\n const volumn = track.getVolumeLevel();\n // ...\n // 前端处理逻辑\n // ...\n })\n }, time);\n \n\n# 示例代码\n\n视频通话数据统计示例可查看 [API-Examples-Web/videoCallStatistics](https://github.com/pili-\nengineering/QNRTC-Web/tree/master/API-Examples-Web/videoCallStatistics)\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频Electron 环境下使用"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >Electron 环境下使用\n\n# Electron 环境下使用\n\n最近更新时间: 2024-06-20 19:25:13\n\n自 v4.0.9 开始,QNRTC Web SDK 支持直接在 Electron 中使用。\n\n# 启动项目\n\n首先初始化一个 Electron 项目,`package.json` 文件大概如下:\n\n \n \n {\n \"name\": \"rtc-electron-demo\",\n \"version\": \"1.0.0\",\n \"private\": true,\n \"description\": \"rtc electron demo\",\n \"main\": \"main.js\",\n \"scripts\": {\n \"start\": \"electron .\",\n \"build\": \"electron-builder -mwl\"\n },\n \"license\": \"MIT\",\n \"devDependencies\": {\n \"electron\": \"^17.0.0\",\n \"electron-builder\": \"^22.14.13\"\n },\n \"build\": {\n \"appId\": \"qiniu.pili-rtc-web\",\n \"mac\": {\n \"category\": \"public.app-category.business\"\n }\n }\n }\n \n\n可以看到,这里定义的入口文件为 `main.js`,下面是一个简单的例子:\n\n \n \n const { app, BrowserWindow } = require('electron')\n const { ipcMain, desktopCapturer } = require('electron')\n \n // 注意这里,Electron 中实现屏幕共享的一个步骤\n ipcMain.handle(\n 'QNRTC_DESKTOP_CAPTURER_GET_SOURCES',\n (event, opts) => desktopCapturer.getSources(opts)\n )\n \n function createWindow() {\n const win = new BrowserWindow({\n width: 800,\n height: 600,\n webPreferences: {\n nodeIntegration: true,\n contextIsolation: false,\n },\n })\n \n // 直接加载牛会议 Demo\n win.loadURL('https://demo-rtc.qiniuapi.com/')\n }\n \n app.whenReady().then(createWindow)\n \n app.on('window-all-closed', () => {\n if (process.platform !== 'darwin') {\n app.quit()\n }\n })\n \n app.on('activate', () => {\n if (BrowserWindow.getAllWindows().length === 0) {\n createWindow()\n }\n })\n \n\n最后安装相关依赖,即可启动:\n\n \n \n npm install\n npm run start\n \n\n# 屏幕共享\n\nElectron 中可以直接调用 Web SDK 的接口,但是屏幕共享功能在 Electron 环境中比较特殊,需要调用单独的接口。\n\nElectron 中实现屏幕共享,需要调用 Electron 提供的 [desktop\ncapturer](https://www.electronjs.org/docs/latest/api/desktop-capturer) 接口。\n\n可以自己调用该接口来获取数据源,然后结合 SDK 提供的\n[createCustomVideoTrack](https://developer.qiniu.com/rtc/9070/WebQNRTC#createCustomVideoTrack)\n接口来创建自定义视频 Track 发布到房间。\n\nSDK 也对该功能提供了一定程度的封装,提供了两种方法,方便直接调用。下面来看如何使用 SDK 提供的接口完成屏幕共享。\n\n由于 Electron 在 17.0 中 [删除](https://www.electronjs.org/docs/latest/breaking-\nchanges#planned-breaking-api-changes-170) 了在 renderer 中直接引用\ndesktopCapturer,因此需要在主进程中将该方法提供给 renderer,供 SDK 运行时调用。代码如下:\n\n \n \n const { ipcMain, desktopCapturer } = require('electron')\n \n // 注意参数不可修改,SDK 需要根据这里的参数定义来做相应的调用\n ipcMain.handle(\n 'QNRTC_DESKTOP_CAPTURER_GET_SOURCES',\n (event, opts) => desktopCapturer.getSources(opts)\n )\n \n\n然后下面就可以开始调用 SDK 的方法来完成屏幕共享了。\n\n第一种方法,直接调用 createScreenVideoTrack 方法,调用与正常逻辑完全一致,SDK 会自动判断是否处于 Electron\n环境,并调用相应的方法来完成屏幕数据采集。\n\n使用这个方法,SDK 提供了一个默认的 UI 选择框,用户点击相应的数据源之后就会直接采集了。\n\n第二种方法,可以先调用接口获取数据源列表,然后再指定特定的数据源进行屏幕数据采集。这种方法针对需要进行更多自定义的场景。示例代码如下:\n\n \n \n import QNRTC, { QNElectronScreenSourceType } from \"qnweb-rtc\";\n \n // 获取数据源列表\n const sources = await QNRTC.getElectronScreenSources(QNElectronScreenSourceType.ALL);\n \n // 选择特定的数据源\n const targetSourceID = sources[0].ID;\n \n // 采集特定 sourceID 的屏幕数据\n const mScreenVideoTrack = await QNRTC.createScreenVideoTrack({\n electronScreenSourceID: targetSourceID\n });\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频最佳实践"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >最佳实践\n\n# 最佳实践\n\n最近更新时间: 2022-07-14 15:46:51\n\n# 房间对象\n\n在使用 SDK 的第一步,应当是创建一个\n[QNRTCClient](https://developer.qiniu.com/rtc/9090/WebQNRTCClient)\n对象,之后所有关于房间的连接、发布订阅等操作,均通过该对象完成。\n\n \n \n const mClient = QNRTC.createClient();\n \n\n这里要注意的点是,同一个页面,该方法仅允许执行一次。即 QNRTCClient 对象应当只创建一个,当作单例对象使用。\n\n# 监听远端用户\n\n不管是先加入房间,还是后加入房间,均通过监听事件获取远端用户信息。这样的逻辑就要求,一定要在加入房间之前,注册好事件监听,这样才可以在加入房间后,立刻收到房间内已有用户的信息。\n\n \n \n const mClient = QNRTC.createClient()\n \n // 监听远端用户加入房间\n mClient.on(\"user-joined\", (userID, userData) => {\n // ...\n })\n \n // 监听远端用户发布 track\n mClient.on(\"user-published\", (userID, tracks) => {\n // ...\n })\n \n // 注册好前面的事件监听后,再加入房间\n mClient.join(\"your room token\")\n .then(() => {\n console.log(\"join room success\")\n })\n \n\n# 断网重连处理\n\n监控房间连接状态的用法,可以参考文档 [房间管理](https://developer.qiniu.com/rtc/9465/room-\nmanagement-web)。这里需要注意的点是,断网重连的处理。\n\n默认情况下,当发生网络异常等情况,SDK 会进入自动重连状态,此时房间连接状态会变为 RECONNECTING,表示重连中。之后就会两种可能:\n\n第一种,此后如果网络状态恢复正常,则 SDK 会完成自动重连,房间连接状态会变为 RECONNECTED,表示重连成功。重连成功后,SDK\n会自动恢复原有的发布和订阅状态。也就是说,如果在重连之前有发布过 tracks 或者订阅过 tracks,重连成功后,SDK 会自动重新发布/订阅这些\ntracks。\n\n第二种,如果 SDK 自动重连后,仍然无法正常连接网络,则 SDK 会自动退出房间,此时房间连接状态变为\nDISCONNECTED,错误码为21003,表示断开连接。在断开连接状态时,[connection-state-\nchanged](https://developer.qiniu.com/rtc/9090/WebQNRTCClient#connection-state-\nchanged)中会带有第二个参数\n[QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/9071/WebQNConnectionDisconnectedInfo),用来表示断开的原因。此时应当根据断开原因不同,做不同的逻辑处理。具体见如下代码。\n\n \n \n mClient.on('connection-state-changed', function(connectionState, info) {\n console.log('connection-state-changed', connectionState);\n \n // 当进入连接断开状态\n if (connectionState === QNConnectionState.DISCONNECTED) {\n \n // 监控断开原因\n switch(info.reason) {\n \n // 当异常断开时\n case QNConnectionDisconnectedReason.ERROR:\n break;\n \n // 当被踢出房间时\n case QNConnectionDisconnectedReason.KICKED_OUT:\n break;\n \n // 当调用接口,主动离开房间时\n case QNConnectionDisconnectedReason.LEAVE:\n break;\n \n }\n });\n \n\n此时,最需要关注的是异常断开的情况。一般处理模式有两种:\n\n * 通知用户:展示 UI,通知用户网络异常,用户可选择调整网络后重试\n * 自动重连:可以在收到异常断开的通知后,主动调用重新加入房间的方法,主动再次重试\n\n# 切换前后摄像头\n\n手机浏览器中,一般会有切换前后摄像头的需求。web 中切换前后摄像头无法一步完成,需要按照如下逻辑。\n\n \n \n <body>\n <div id=\"container\"></div>\n <button id=\"switchCamera\">切换摄像头</button>\n \n <script>\n const switchCameraBtn = document.getElementById(\"switchCamera\")\n const playContainer = document.getElementById(\"container\")\n \n let facingMode = \"user\"\n let cameraTrack;\n \n switchCameraBtn.onclick = async () => {\n \n // facingMode 参数用于指定采集前置摄像头还是后置摄像头\n facingMode = facingMode === \"user\" ? \"environment\" : \"user\"\n \n // 之前采集的 camera track 必须销毁\n // 注意,如果该 camera track 发布过,就也要先取消发布\n if (cameraTrack) {\n // unpublish\n // ...\n \n cameraTrack.destroy()\n cameraTrack = undefined;\n }\n \n // 重新采集指定的摄像头\n cameraTrack = await QNRTC.createCameraVideoTrack({ facingMode })\n \n // 再次播放\n cameraTrack.play(playContainer);\n }\n </script>\n \n </body>\n \n\n# local track 断流处理\n\n本地采集的 local track,某些情况下可能会发生断流,一般常见的有下面几种情况:\n\n * 摄像头被拔出\n * 麦克风被拔出\n * 用户主动停止了屏幕共享\n * 媒体设备故障\n\n当发生断流时,视频 track 会黑屏,音频 track 会没有声音。此时如果该 track 已发布,SDK 会自动取消发布该 track,并触发\nQNLocalTrack 对象上的\n[ended](https://developer.qiniu.com/rtc/9085/WebQNLocalTrack#ended)\n事件,可以通过监听该事件,来处理这种情况。\n\n \n \n const track = await QNRTC.createScreenVideoTrack({ screenVideoTag: \"screen-share\" })\n \n track.on(\"ended\", () => {\n console.log(`track: ${track.tag} ended!`)\n \n // 后续逻辑\n // 1. 通知用户\n // 2. 自动重新采集\n // 3. 其他等...\n })\n \n\n> 仅需关注 local track 的 ended 情况,remote track 的 ended 由远端用户自行处理,每个本地用户处理自己的 local\n> track 即可。\n\n# 自动播放失败处理\n\n浏览器中为了安全和用户体验等方面考虑,对媒体数据的自动播放做了限制:在没有用户交互操作的情况下,不允许媒体播放。也就是说,在没有用户交互的情况下,如果直接调用\n[play](https://developer.qiniu.com/rtc/9076/WebQNTrack#play) 方法播放\ntrack,一定概率会被浏览器阻止,导致播放失败。\n\n针对这种情况,一般处理策略有两种。\n\n第一种,始终保证在用户交互之后,调用 play 方法播放。例如,在一个 button 的点击回调函数中调用。\n\n \n \n const playBtn = document.getElementById(\"playBtn\")\n const playContainer = document.getElementById(\"container\")\n \n // create track \n // ...\n \n playBtn.onclick = () => {\n // 这里,点击回调函数中调用\n track.play(playContainer)\n }\n \n\n第二种,可以选择在自动播放失败时,引导用户交互,在用户的交互中,再次播放。\n\n \n \n <body>\n <div id=\"container\"></div>\n <button id=\"resumeBtn\" disabled>恢复播放</button>\n \n <script>\n const resumeBtn = document.getElementById(\"resumeBtn\")\n const playContainer = document.getElementById(\"container\");\n \n // 用来存储播放失败的 tracks\n let toBeResumedTracks = []\n \n // 引导用户点击的 button,点击后再次执行播放\n resumeBtn.onclick = () => {\n for (const track of toBeResumedTracks) {\n track.play(playContainer)\n }\n // 将数组清空\n toBeResumedTracks = []\n // 隐藏重新播放按钮\n resumeBtn.disabled = true\n }\n \n const mClient = QNRTC.createClient()\n \n mClient.on(\"user-published\", (userID, tracks) => {\n mClient.subscribe(tracks)\n .then(({ videoTracks, audioTracks }) => {\n const tracks = [...videoTracks, ...audioTracks]\n \n for (const track of tracks) {\n // 播放 track\n track.play(playContainer).catch(e => {\n console.log(\"play fail\", track)\n \n // 如果播放失败,push 到待恢复数组中\n toBeResumedTracks.push(track)\n \n // 显示按钮,引导用户点击\n resumeBtn.disabled = false\n })\n }\n })\n })\n \n mClient.join(\"your room token\")\n .then(() => {\n console.log(\"join room success\")\n })\n </script>\n </body>\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >错误码\n\n# 错误码\n\n最近更新时间: 2022-09-06 15:02:03\n\n本文主要介绍 QNRTC SDK 各端相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nSUCCESS| 0| 无错误| 无 \nJOIN_ROOM_ERROR| 10001| 房间 Token 错误| 表示您提供的房间 token 不符合七牛 token 签算规则,详情请参考\n[RoomToken 签发服务](https://developer.qiniu.com/rtc/8813/roomToken) \nJOIN_ROOM_ERROR| 10002| 房间 Token 过期| 表示您的房间 token 过期,需要重新生成 token 再加入 \nJOIN_ROOM_ERROR| 10022| 房间内已经有同名用户| 后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nJOIN_ROOM_ERROR| 10054| 媒体协商失败| 表示该设备不支持指定的音视频格式,无法进行连麦的操作 \nERROR_AUTH_FAILED| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 token 验证失败,建议检查签算\ntoken 的信息是否异常,若 token 无误,可重新尝试加入房间 \nERROR_RECONNECT_FAILED| 21003| 30s 内未能重连成功或者重连时房间已被销毁| 建议检查网络并重新申请 token\n加入房间。当发生该错误时,之前创建的转推任务将被服务销毁,如有需要,应在下次成功加入房间后按业务需要恢复 \nERROR_FATAL| 21005| 非预期错误| 需要检查接口调用、设备状态、网络状态等是否正常 \n \n# 设备采集相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_NOT_SUPPORT| 21006| 设备原因,对当前操作涉及的接口、媒体格式等不兼容| 更新浏览器版本或者调整输入的媒体数据格式 \nERROR_PLUGIN_NOT_AVAILABLE| 23003| 指定了 Chrome 插件采集,但是浏览器未安装该插件|\n提示用户安装浏览器[插件](https://chrome.google.com/webstore/detail/qnrtc-screen-\ncapture/kelbkaklgngbpjmfopeiclhfmpgnkkpe?hl=zh-CN) \nERROR_DEVICE_NOT_ALLOWED| 23004| 采集时请求媒体设备未获得用户授权| 提示用户同意授权 \nCREATE_SCREEN_AUDIO_ERROR| 23005| 屏幕采集时指定了要求采集系统声音,但是用户未选择系统声音选项| 提示用户选择系统声音选项 \n \n# Track 相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_INVALID_PARAMETER| 10053| 非法参数| 请检查待发布 Track 是否为本地 Track,并且不为空 \nERROR_FATAL| 21005| 非预期错误| 需要检查接口调用、设备状态、网络状态等是否正常 \nERROR_PLAY_NOT_ALLOWED| 21007| 自动播放失败|\n参考[最佳实践文档](https://developer.qiniu.com/rtc/10266/we-best-practices)处理 \n \n# 混音相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_AUDIO_DECODE_ERROR| 22011| 媒体文件解码错误| 检查媒体文件是否正常 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_INVALID_PARAMETER| 10053| 参数错误| 请检查操作的参数是否合法 \nERROR_FATAL| 21005| 服务端错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频迁移指南"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Web >迁移指南\n\n# 迁移指南\n\n最近更新时间: 2022-07-14 15:47:07\n\nQNRTC Web SDK 4.x 是一个全量重构版本,简化了接口调用逻辑,提高了接口的易用性,提供了更友好的事件监听机制。\n\n# 概览\n\n在 4.x 版本 SDK 中,我们提供了\n[QNRTC](https://developer.qiniu.com/rtc/api/9070/WebQNRTC) 和\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient)\n两个类来管理房间和音视频流的采集、发布、订阅等操作。\n\n * [QNRTC](https://developer.qiniu.com/rtc/api/9070/WebQNRTC) 主要负责处理 SDK 全局配置以及本地音视频 track 的创建采集等房间无关的操作。\n * [QNRTCClient](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient) 主要负责处理房间的加入、离开,音视频 track 的发布、订阅等房间交互相关的操作。\n\n上述管理方式的改动将影响到 SDK 的主要交互流程,若您需要升级,可以参考 [RTC 4.x\n使用指南](https://developer.qiniu.com/rtc/9386/user-guidance-web) 的使用姿势分模块进行更新。\n\n# 设备管理\n\nv4.x 统一在 [QNRTC](https://developer.qiniu.com/rtc/api/9070/WebQNRTC) 对象上实现设备管理。\n\n可以通过下面几个方法来分别获取摄像头、麦克风和音频播放设备:\n\n * [getCameras](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#getCameras)\n * [getMicrophones](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#getMicrophones)\n * [getPlaybackDevices](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#getPlaybackDevices)\n * [getDevices](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#getDevices)\n\n可以通过配置下面三个回调函数,来实时监听当前媒体设备的变化:\n\n * [onCameraChanged](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#onCameraChanged)\n * [onMicrophoneChanged](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#onMicrophoneChanged)\n * [onPlaybackDeviceChanged](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#onPlaybackDeviceChanged)\n\n# track 的定义及使用方式\n\n在 4.x 版本 SDK 中,我们细化了音视频 track 的分类,基于不同类型的 track 提供了不同的控制接口,新版本的 track 对本地\ntrack 和远端 track 做了区分,继承结构定义如下:\n\n * [QNTrack](https://developer.qiniu.com/rtc/api/9076/WebQNTrack)\n * [QNLocalTrack](https://developer.qiniu.com/rtc/api/9085/WebQNLocalTrack)\n * [QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/9089/WebQNLocalAudioTrack)\n * [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9064/WebQNMicrophoneAudioTrack)\n * [QNBufferSourceAudioTrack](https://developer.qiniu.com/rtc/api/9069/WebQNBufferSourceAudioTrack)\n * [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9091/WebQNCustomAudioTrack)\n * [QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/9061/WebQNLocalVideoTrack)\n * [QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/9068/WebQNCameraVideoTrack)\n * [QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/9092/WebQNScreenVideoTrack)\n * [QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/9088/WebQNCustomVideoTrack)\n * [QNRemoteTrack](https://developer.qiniu.com/rtc/api/9082/WebQNRemoteTrack)\n * [QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/9087/WebQNRemoteAudioTrack)\n * [QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/9060/WebQNRemoteVideoTrack)\n\nv4.x 版本除了对音视频 track 的结构进行了调整,还将部分 track 的操作接口从 `deviceManager` 移到了 track 上。\n\n对从本地采集的角度来说,在 [QNRTC](https://developer.qiniu.com/rtc/api/9070/WebQNRTC)\n对象中提供了采集本地 track 的方法:\n\n * [createCameraVideoTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createCameraVideoTrack)\n * [createMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createMicrophoneAudioTrack)\n * [createMicrophoneAndCameraTracks](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createMicrophoneAndCameraTracks)\n * [createBufferSourceAudioTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createBufferSourceAudioTrack)\n * [createScreenVideoTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createScreenVideoTrack)\n * [createCustomAudioTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createCustomAudioTrack)\n * [createCustomVideoTrack](https://developer.qiniu.com/rtc/api/9070/WebQNRTC#createCustomVideoTrack)\n\n对订阅远端的媒体流来来说,当远端发布时,本地可以通过监听\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient) 上的\n`user-published` 事件来获取远端媒体流\n[QNRemoteTrack](https://developer.qiniu.com/rtc/api/9082/WebQNRemoteTrack)\n对象。当订阅成功之后,可以获得对应的\n[QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/9087/WebQNRemoteAudioTrack)\n和\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/9060/WebQNRemoteVideoTrack)\n对象。\n\n# 房间管理\n\n在 4.x 版本中,创建房间对象需要调用\n[QNRTC](https://developer.qiniu.com/rtc/api/9070/WebQNRTC) 类的静态方法\n`createClient` 来创建\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient)\n房间对象。下面来看如下使用该对象来管理房间。\n\n首先是加入和离开房间。可以通过\n[join](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#join) 和\n[leave](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#leave)\n方法来加入/离开房间,可以通过监听 [user-\njoined](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#user-joined) 和\n[user-left](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#user-left)\n事件来判断远端用户是否加入/离开房间。\n\n然后是发布和取消发布 Track。可以通过\n[publish](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#publish) 和\n[unpublish](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#unpublish)\n方法来发布和取消发布 Track,可以通过监听 [user-\npublished](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#user-\npublished) 和 [user-\nunpublished](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#user-\nunpublished) 事件来获取远端用户的发布/取消发布信息。\n\n最后是订阅远端的 Track。可以通过\n[subscribe](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#subscribe)\n和\n[unsubscribe](https://developer.qiniu.com/rtc/api/9090/WebQNRTCClient#unsubscribe)\n方法来实现订阅/取消订阅远端用户发布的 Track。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >初始化\n\n# 初始化\n\n最近更新时间: 2022-03-24 13:58:58\n\n本部分介绍了实时音视频的初始化方式及其配置项。\n\n在加入房间前,SDK 提供了一系列的方法用来进行初始化配置。在配置好后通过 QNRTC::CreateClient 创建 QNRTCClient对象 即可。\n\n## 初始化\n\n \n \n qiniu::QNRTCSetting setting;\n qiniu::QNRTC::Init(setting, this);\n \n\n## 设置日志等级\n\n通过调用 `QNRTC::SetLogFile` 设置 SDK 的日志等级\n\n \n \n static int32_t SetLogFile(QNLogLevel level,const std::string& dir_name,const std::string& file_name);\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2022-03-24 14:11:09\n\n音视频 track 为音视频交互的基本单位,本部分介绍音视频 track 的创建及采集等功能的使用。\n\n## 摄像头视频 Track\n\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/9404/QNCameraVideoTrack)\n为摄像头采集的本地 track,其创建方式如下:\n\n \n \n QNCameraVideoTrackConfig camera_info = {{width, height, 30, 2000},\n {width, height, 30},\n video_dev_id,\n CAMERA_TAG,\n enable_simulcast_};\n QNCameraVideoTrack video_track = QNRTC::CreateCameraVideoTrack(camera_info, this);\n \n\n其中:\n\n[QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/api/9406/QNCameraVideoTrackConfig)\n用来配置摄像头采集参数和编码参数。\n\n在创建好\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/9404/QNCameraVideoTrack)\n之后,就可以通过调用 SDK 提供的相关方法进行摄像头的相关操作:\n\n### 开启/关闭预览\n\n \n \n // 预览摄像头(如要取消则将 QNView.hwnd 设置为空)\n virtual void Play(QNView& view) = 0;\n \n\n### 开启/关闭镜像\n\n \n \n virtual void SetMirror(bool mirror) = 0;\n \n\n## 屏幕录制视频 Track\n\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/9448/QNScreenVideoTrack)\n为屏幕录制的本地 track,录屏连麦的主要步骤如下:\n\n### 创建 screen track\n\n在通过了屏幕录制申请后,可以通过如下方式进行 screen track 的创建:\n\n \n \n QNScreenVideoTrackConfig screen_info{{1920, 1080, 30, 2000},\n source_id,\n SCREENCASTS_TAG,\n enable_simulcast_,\n is_window_graphics_capture_enabled};\n QNScreenVideoTrack video_track = QNRTC::CreateScreenVideoTrack(screen_info);\n \n\n其中,[QNScreenVideoTrackConfig](https://developer.qiniu.com/rtc/api/9449/QNScreenVideoTrackConfig)\n用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等。\n\n### 开启/关闭预览\n\n \n \n // 预览摄像头(如要取消则将 QNView.hwnd 设置为空)\n virtual void Play(QNView& view) = 0;\n \n\n## 外部导入视频 track\n\nSDK 外部导入视频连麦仅支持导入 **kI420 数据** 格式的数据,使用方式如下:\n\n### 创建外部导入视频 track\n\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomVideoTrack)\n为外部数据导入视频 track,创建方式如下:\n\n \n \n QNCustomVideoTrackConfig video_custom_info = {\n {426, 240, 30, 300}, EXTERNAL_VIDEO, enable_simulcast_};\n QNCustomVideoTrack video_track = QNRTC::CreateCustomVideoTrack(video_custom_info);\n \n\n其中,[QNCustomVideoTrackConfig](https://developer.qiniu.com/rtc/api/9410/QNCustomVideoTrackConfig)\n用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等。\n\n### 数据导入\n\n#### 导入 I420 数据\n\nSDK 支持导入 I420 的数据,在创建好\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomVideoTrack)\n之后,可通过如下方式推送数据:\n\n \n \n /**\n * 推送自定义视频帧\n *\n * @param data 视频数据\n * @param data_size 数据长度\n * @param width 图像宽度\n * @param height 图像高度\n * @param timestamp_us 时间戳,注意单位为:微妙\n * @param video_frame_type 视频原始格式,目前支持:kI420\n * @param rotation 导入后旋转角度,如果不需要旋转则使用默认值 kVideoRotation0\n * 即可\n * @param mirror 导入后是否镜像\n */\n virtual int32_t PushVideoFrame(const uint8_t* data, const uint32_t data_size,\n const int32_t width, const int32_t height,\n const int64_t timestamp_us,\n QNVideoFrameType video_frame_type,\n QNVideoRotation rotation,\n bool mirror = false) = 0;\n \n\n## 麦克风音频 Track\n\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/QNMicrophoneAudioTrack)\n为麦克风采集的音频 track,如需以麦克风采集数据作为音频源,仅需创建一个\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/QNMicrophoneAudioTrack)\n并发布即可,其创建方式如下:\n\n \n \n QNMicrophoneAudioTrackConfig micro_info = {{0, 0, 0, 32}, MICROPHONE_TAG};\n QNMicrophoneAudioTrack audio_track = QNRTC::CreateMicrophoneAudioTrack(micro_info);\n \n\n其中,[QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/api/9434/QNMicrophoneAudioTrackConfig)\n包括音频的码率等,这里麦克风的采样率、声道数等由系统录制设备控制\n\n> **注意:SDK 当前仅支持一路音频\n> Track,因此,在创建了[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/QNMicrophoneAudioTrack)\n> 之后,将无法再创建\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomAudioTrack)\n> 实例**\n\n## 外部导入音频 Track\n\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomAudioTrack)\n为外部导入音频 track,如需导入音频数据作为音频源,仅需创建一个\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomAudioTrack)\n即可,然后通过调用 `QNCustomAudioTrack.PushAudioFrame` 进行外部音频数据的导入。\n\n支持的音频数据格式为:PCM 格式。\n\n使用方式可参考如下示例:\n\n \n \n /**\n * 推送自定义音频帧\n *\n * @param data 音频数据\n * @param data_size 数据长度\n * @param bits_per_sample 位宽,即每个采样点占用位数\n * @param sample_rate 采样率\n * @param channels 声道数\n */\n virtual int32_t PushAudioFrame(const uint8_t* data, uint32_t data_size,\n uint32_t bits_per_sample, uint32_t sample_rate,\n uint32_t channels) = 0;\n \n\n> **注意:SDK 当前仅支持一路音频\n> Track,因此,在创建了[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomAudioTrack)\n> 之后,将无法再创建\n> [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/QNMicrophoneAudioTrack)\n> 实例**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >房间管理\n\n# 房间管理\n\n最近更新时间: 2022-03-24 14:16:17\n\n房间表示一个多人的视频会话,本部分介绍如何进行房间管理,获取房间信息以及用户信息等常见功能。\n\n## 加入房间\n\n本地调用 [QNRTCClient.Join(String\ntoken)](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Join) 通过\nroomToken 加入房间。\n\n \n \n virtual void Join(const std::string& token, const std::string& user_data = \"\") = 0;\n \n\n示例代码如下:\n\n \n \n client->Join(room_token);\n \n\n> 1. 请确保在 `QNConnectionState.kDisconnected` 状态下调用该接口加入房间,否则接口调用无效\n> 2. 加入房间时根据业务需求,每个用户可通过 `user_data` 携带自定义数据\n>\n\n关于 roomToken 在服务端的生成可查阅 [RoomToken\n的签算](https://doc.qnsdk.com/rtn/docs/rtn_startup)。\n\n本地加入房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n当成功加入房间后,会通过\n[QNClientEventListener.OnConnectionStateChanged](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnConnectionStateChanged)\n接收到房间状态改变的通知\n\n \n \n class QNClientEventListener\n {\n public:\n // 当房间状态改变时会触发此回调,成功加入房间后,回调状态为 QNConnectionState.kConnected\n virtual void OnConnectionStateChanged(QNConnectionState state, const QNConnectionDisconnectedInfo& info) = 0;\n }\n \n\n**远端用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端用户加入房间时会触发此回调\n virtual void OnUserJoined(const std::string& remote_user_id, const std::string& user_data) = 0;\n }\n \n\n* * *\n\n## 离开房间\n\n本地调用\n[QNRTCClient.Leave()](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Leave)\n退出房间。本地退出房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当房间状态改变时会触发此回调,成功离开房间后,回调状态为 QNConnectionState.kDisconnected,QNConnectionDisconnectedInfo 回调 Reason 为 kLeave\n void OnConnectionStateChanged(QNConnectionState state, const QNConnectionDisconnectedInfo& info) = 0;\n }\n \n\n**远端用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端用户离开房间时会触发此回调\n virtual void OnUserLeft(const std::string& remote_user_id) = 0;\n }\n \n\n* * *\n\n## 房间信息\n\n### 获取房间内远端用户信息\n\n本地可调用 [QNRTCClient.GetRemoteUsers(const std::string&\nuserId)](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetRemoteUsers%5B1/2%5D)\n接口获取音视频通话房间中的指定用户。\n\n \n \n virtual QNRemoteUser& GetRemoteUsers(const std::string& userId) = 0;\n \n\n本地可调用\n[QNRTCClient.GetRemoteUsers()](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetRemoteUsers%5B2/2%5D)\n接口获取音视频通话房间中的远端用户列表。\n\n \n \n virtual RemoteUserList& GetRemoteUsers() = 0;\n \n\n其中,[QNRemoteUser](https://developer.qiniu.com/rtc/api/9441/QNRemoteUser)\n代表远端用户的信息,通过该对象可以获取指定 user 发布的音视频列表以及本地对其的订阅情况。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-03-24 14:19:06\n\n本部分介绍能够实现向房间发布或取消发布媒体流,订阅或停止订阅媒体流等操作。\n\n## 发布 Track\n\n发布 Track 前,需要对 Track\n进行配置和创建,详情请见[音视频采集](https://developer.qiniu.com/rtc/development_guidelines/9546/media_capture),创建好\nTrack 后即可将该 Track 通过 `QNRTCClient.Publish` 向房间内进行发布。\n\n \n \n virtual int Publish(LocalTrackList& track_list) = 0;\n \n\n其中,发布结果通过[QNPublishResultCallback](https://developer.qiniu.com/rtc/api/9435/QNPublishResultCallback)\n回调了发布操作的结果通知,其接口定义如下:\n\n \n \n class QINIU_EXPORT_DLL QNPublishResultCallback\n {\n public:\n /**\n * 发布成功后触发此回调\n */\n virtual void OnPublished() = 0;\n \n /**\n * 发布失败后触发此回调\n *\n * @param error_code 错误码\n * @param error_message 错误消息\n */\n virtual void OnPublishError(int error_code, const std::string& error_message) = 0;\n protected:\n ~QNPublishResultCallback() {}\n };\n \n\n发布 Track 成功后,远端用户会收到如下通知回调:\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端 track 发布时会触发此回调\n virtual void OnUserPublished(const std::string& remote_user_id_, const RemoteTrackList& track_list) = 0;\n }\n \n\n## 取消发布 Track\n\n调用 `QNRTCClient.UnPublish` 取消发布本地媒体流。\n\n \n \n // 取消发布本地音视频 track,支持可变参数\n virtual int UnPublish(LocalTrackList& track_list) = 0;\n \n\n取消发布成功后,远端用户会收到如下通知回调:\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端 track 取消发布时会触发此回调\n virtual void OnUserUnpublished(const std::string& remote_user_id, const RemoteTrackList& track_list) = 0;\n }\n \n\n## 订阅远端 Track\n\n在 v4.x.x 版本后提供了默认自动订阅的功能,用户可以通过调用 `QNRTCClient.SetAutoSubscribe`\n进行对自动订阅功能的开启与关闭,默认为开启状态。\n\n \n \n virtual void SetAutoSubscribe(bool auto_subscribe) = 0;\n \n\n在自动订阅功能关闭时,用户可以通过调用 `QNRTCClient.Subscribe` 接口订阅远端 Tracks。\n\n \n \n // 订阅远端音视频 track,支持可变参数\n virtual void Subscribe(const RemoteTrackList& track_list) = 0;\n \n\n本地订阅远端用户媒体流成功后,会触如下回调:\n\n \n \n class QNClientEventListener \n {\n public:\n // 当成功订阅远端 track 时会触发此回调\n virtual void OnSubscribed(const std::string& remote_user_id, const RemoteAudioTrackList& remote_audio_track_list, const RemoteVideoTrackList& remote_video_track_list) = 0;\n }\n \n\n## 取消订阅远端 Track\n\n调用 `QNRTCClient.UnSubscribe` 接口取消订阅远端 Tracks。\n\n \n \n virtual void UnSubscribe(const RemoteTrackList& track_list) = 0;\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >CDN 转推\n\n# CDN 转推\n\n最近更新时间: 2022-03-24 14:25:27\n\n本部分介绍了 CDN 转推的使用姿势及其应用场景。\n\n## 应用场景\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:单路流直播、多路流合流直播以及两者结合可切换的直播场景。\n\n下面将会就三种场景的的使用姿势进行说明。\n\n## 实现分析\n\n### 设置监听\n\n在进行 CDN 转推之前,需要设置 CDN 转推流的状态监听:\n\n \n \n // 设置监听\n virtual void SetLiveStreamingListener(QNLiveStreamingListener* listener) = 0;\n \n // 监听接口类\n class QNLiveStreamingListener\n {\n public:\n /**\n * 转推任务成功创建时触发此回调\n *\n * @param stream_id 转推成功的 stream id\n */\n virtual void OnStarted(const std::string& stream_id) = 0;\n \n /**\n * 转推任务成功停止时触发此回调\n *\n * @param stream_id 停止转推的 stream id\n */\n virtual void OnStopped(const std::string& stream_id) = 0;\n \n /**\n * 转推任务配置更新时触发此回调\n *\n * @param stream_id 配置更新的 stream id\n */\n virtual void OnTranscodingTracksUpdated(const std::string& stream_id) = 0;\n \n /**\n * 转推任务出错时触发此回调\n * @param stream_id 出现错误的 stream id\n * @param error_info 详细错误原因\n */\n virtual void OnError(const std::string& stream_id, const QNLiveStreamingErrorInfo& error_info) = 0;\n protected:\n virtual ~QNLiveStreamingListener() {}\n };\n \n\n其中,转推任务出错时的错误原因可参考\n[QNLiveStreamingErrorInfo](https://developer.qiniu.com/rtc/api/9417/QNLiveStreamingErrorInfo)\n\n在设置好监听后,便可以基于业务场景进行`单路转推任务`或者`合流转推任务`的创建了。\n\n### 单路流直播场景\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n场景示意图如下:\n\n\n\n注意:如果主播有两路视频流(采集+录屏)需要合流转推,请参考多路流合流直播场景实现\n\n单路流转推场景主要实现步骤如下:\n\n#### 创建单路转推任务\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9414/QNDirectLiveStreamingConfig)\n用于配置单路转推的相关信息,包括推流地址、参与 CDN 转推的音视频轨。\n\n创建转推任务的示例代码如下:\n\n \n \n qiniu::QNDirectLiveStreamingConfig config;\n // 设置 stream id,该 id 为合流任务的唯一标识符\n config.stream_id = _custom_forward_id;\n // 设置推流地址\n config.publish_url = \"rtmp://pili-publish.qnsdk.com/sdk-live/window-forward\";\n // 设置单路流中的视频轨,仅支持一路视频的设置,重复设置会被覆盖\n config.local_video_track = _camera_track_ptr;\n // 设置单路流中的音频轨,仅支持一路音频的设置,重复设置会被覆盖\n config.local_audio_track = _microphone_audio_track_ptr;\n // 开始进行单路转推\n client->StartLiveStreaming(config);\n \n\n单路转推任务创建成功后,会触发上述 `QNLiveStreamingListener.OnStarted`\n回调接口,回调该接口即代表成功开启了单路流转推,可以通过相应的播放链接拉取直播流进行观看。\n\n**注意:**\n\n 1. **QNDirectLiveStreamingConfig 仅支持配置一路视频轨和一路音频轨,重复设置会被覆盖**\n\n#### 停止单路转推任务\n\n可以通过如下方式实现单路转推任务的停止:\n\n \n \n client->StopLiveStreaming(config);\n \n\n单路转推任务停止成功后,会触发上述 `QNLiveStreamingListener.OnStopped` 回调接口。\n\n### 多路流合流直播场景\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n场景示意图如下:\n\n\n\n为了实现该场景,首先,需要了解下相关配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/api/9456/QNTranscodingLiveStreamingConfig) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/api/9458/QNTranscodingLiveStreamingTrack) 用于配置参与 CDN 合流的每一路媒体 track 在合流画布中的位置、大小等信息。\n * [QNTranscodingLiveStreamingImage:](https://developer.qiniu.com/rtc/api/9457/QNTranscodingLiveStreamingImage) 用于配置合流背景、水印配置参数。\n\n了解上述概念后,该场景的主要实现步骤如下:\n\n#### 开启合流直播\n\n##### 创建 QNTranscodingLiveStreamingConfig\n\n \n \n qiniu::QNTranscodingLiveStreamingConfig config;\n config.stream_id = unicode2utf(_room_name.GetBuffer()) + \"_merge\";; // 设置 stream id,该 id 为合流任务的唯一标识符\n config.publish_url = _merge_config.publish_url;; // 设置合流任务的推流地址\n config.width = _merge_config.job_width; // 设置合流画布的宽度\n config.height = _merge_config.job_height; // 设置合流画布的高度\n config.fps = _merge_config.job_fps; // 设置合流任务的视频帧率\n config.stretch_mode = _merge_config.job_stretch_mode; // 设置合流任务的默认画面填充方式\n config.bitrate = _merge_config.job_bitrate; // 设置合流任务的码率,单位: kbps\n config.merge_background = background; // 设置合流画布的背景图片,仅支持 HTTP\n config.merge_watermark.emplace_back(mark); // 设置合流任务的水印\n client->StartLiveStreaming(config); // 开始转推\n \n\n合流任务创建成功后,会触发上述 `QNLiveStreamingListener.OnStarted` 回调接口。可以在该回调接口中设置合流布局\n\n##### 设置合流布局\n\n合流任务创建成功之后,就可以基于用户发布的 track 进行合流布局的配置了。这里首先需要了解\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/9458/QNTranscodingLiveStreamingTrack)\n的概念。操作示例代码如下:\n\n \n \n qiniu::QNTranscodingLiveStreamingTrack merge_opt;\n merge_opt.track_id = _camera_track_ptr->GetTrackID(); // 设置待合流 track id\n merge_opt.x = _merge_config.local_video_x; // 设置 track 画面在合流画面中位置的 x 轴坐标\n merge_opt.y = _merge_config.local_video_y; // 设置 track 画面在合流画面中位置的 y 轴坐标\n merge_opt.z = 1; // 设置 track 画面在合流画面中的 zOrder 层级\n merge_opt.width = _merge_config.local_video_width; // 设置 track 画面在合流画面中位置宽度\n merge_opt.height = _merge_config.local_video_height; // 设置 track 画面在合流画面中位置高度\n \n\n其中,远端用户的 track id 可以通过 SDK 提供的相关回调返回的\n[QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/9438/QNRemoteAudioTrack)\n和\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/9443/QNRemoteVideoTrack)\n获取:\n\n \n \n class QNClientEventListener {\n public:\n // 当成功订阅远端 track 时会触发此回调\n virtual void OnSubscribed(const std::string& remote_user_id,const RemoteAudioTrackList& remote_audio_track_list,const RemoteVideoTrackList& remote_video_track_list) = 0;\n }\n \n\n通过上述代码创建\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/9458/QNTranscodingLiveStreamingTrack)\n或者更新了已有的 track 布局配置后,就可以进行布局的配置了:\n\n \n \n /**\n * 添加合流的 track\n *\n * @param stream_id 合流任务 id\n * @param transcoding_track_list 增加的 track 合流配置信息\n */\n virtual void SetTranscodingLiveStreamingTracks(std::string& stream_id, QNTranscodeingTrackList& transcoding_track_list) = 0;\n \n\n当期望取消某路合流布局时,可以通过如下调用实现:\n\n \n \n /**\n * 删除合流中的 track\n *\n * @param stream_id 合流任务 id\n * @param transcoding_track_list 删除的 track\n */\n virtual void RemoveTranscodingLiveStreamingTracks(std::string& stream_id, QNTranscodeingTrackList& transcoding_track_list) = 0;\n \n\n#### 停止合流直播\n\n可以通过如下方式实现合流转推任务的停止:\n\n \n \n client->StopLiveStreaming(config);\n \n\n合流转推任务停止成功后,会触发上述 `QNLiveStreamingListener.OnStopped` 回调接口。\n\n### 单路流、多路流合流二者切换的场景\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们引入 `serialnum` 的概念以实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9414/QNDirectLiveStreamingConfig) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9456/QNTranscodingLiveStreamingConfig) 两种任务场景推流地址需要保持一致以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,值越大,优先级越高,便不会出现抢流的现象。也基于此,合流任务必须使用自定义合流任务,以便自定义推流地址。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,在收到合流转推任务的 `OnStarted` 回调之后,在回调中执行 `client->StopLiveStreaming(direct_config)` 来停止单路转推任务\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,在收到单路转推任务的 `OnStarted` 回调之后,在回调中执行 `_rtc_client_ptr->StopLiveStreaming(transcoding_config)` 来停止合流转推任务\n\n## 注意事项\n\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,值越大,优先级越高**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >背景音乐混音\n\n# 背景音乐混音\n\n最近更新时间: 2022-03-24 14:27:55\n\n本文主要介绍背景音乐混音功能的使用。\n\n用户可在连麦过程中将需要混音的音乐文件使用电脑中的音乐播放器进行播放,SDK 通过监听电脑声卡来获取需要混音的声音数据\n\n## Windows\n\n### 开启声卡监听\n\nSDK 当前支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/qnmicrophoneaudiotrack)\n或\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/qncustomaudiotrack)\n的混音功能, 在创建完\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/qnmicrophoneaudiotrack)\n或者\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/qncustomaudiotrack)\n实例之后,调用\n[QNRTCClient::MixDesktopAudio](https://developer.qiniu.com/rtc/api/9420/qnlocalaudiotrack#MixDesktopAudio)\n接口来开启监听\n\n \n \n virtual void MixAudioWithSoundCard(bool enable, float volume_scale_ratio = 1.0f) = 0;\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >视频大小流\n\n# 视频大小流\n\n最近更新时间: 2022-03-24 14:40:39\n\n本部分介绍视频大小流的使用方式。\n\n## 功能介绍\n\n\n\n当用户 A 开启大流时,会发送多个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n## 开启大小流\n\n在创建摄像头 track 时,可以通过 track config 提供的 `multi_profile_enabled` 成员来启用大小流功能,以\nQNCameraVideoTrack 为例,其启用方式如下:\n\n \n \n QNCameraVideoTrackConfig camera_info = {{width, height, 30, 2000},\n {width, height, 30},\n video_dev_id,\n CAMERA_TAG,\n enable_simulcast_}; // 是否开启大小流\n QNCameraVideoTrack video_track = QNRTC::CreateCameraVideoTrack(camera_info);\n \n\n开启大小流功能后,发送端可以通过获取统计信息的接口\n[QNRTCClient.GetLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetLocalVideoTrackStats)\n来感知发送情况。\n\n## 订阅大小流\n\n订阅端可以通过\n[QNRemoteVideoTrack.IsMultiProfileEnabled](https://developer.qiniu.com/rtc/api/9443/QNRemoteVideoTrack#IsMultiProfileEnabled)\n接口判断远端用户是否发布大小流。若接口返回 true,则可通过\n[QNRemoteVideoTrack.SetProfile](https://developer.qiniu.com/rtc/api/9443/QNRemoteVideoTrack#SetProfile)\n来订阅指定的 QNTrackProfile。\n\n示例代码如下:\n\n \n \n if (remote_video_track.IsMultiProfileEnabled()) {\n remote_video_track.SetProfile(qiniu::QNTrackProfile::kMedium);\n }\n \n\n> **注意:SetProfile 接口仅是设置预期的流等级,并不代表实际的订阅等级,若实际发送端还未发送指定等级的流,则将无法订阅到指定的\n> profile**\n\n当订阅指定 profile 生效后,将通过回调\n[QNTrackInfoChangedListener.OnVideoProfileChanged](https://developer.qiniu.com/rtc/api/9453/QNTrackInfoChangedListener#OnVideoProfileChanged)\n告知。\n\n## 注意事项\n\n * **开启大小流功能设置编码宽高最低为 1280 x 720**\n * **目前仅支持在发送端发布单路 camera 视频 track 的场景下,使用大小流功能**\n * **对于开启大小流的用户,建议保证有良好的网络环境,保证多流发送质量**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话质量统计"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >通话质量统计\n\n# 通话质量统计\n\n最近更新时间: 2022-03-24 16:17:57\n\n本文主要介绍 SDK 如何对通话过程中的网络以及音视频的质量进行监控。\n\n> 获取通话中的质量监测信息前,请确保您已经**加入了房间** 并且**已经发布或订阅了相关的音视频 Track** 。\n\n# 音频质量统计\n\n## 获取本地音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetLocalAudioTrackStats)\n接口获取当前本地的音频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/9421/QNLocalAudioTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nuplink_bitrate| 本地音频上行的码率,单位 bps \nuplink_rtt| 本地音频上行的网络延时,单位 ms \nuplink_lostrate| 本地音频上行的丢包率,范围 [0, 100] \n \n## 获取远端音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetRemoteAudioTrackStats)\n接口获取当前远端的音频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/9439/QNRemoteAudioTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \ndownlink_bitrate| 本地拉取远端音频时下行的码率,单位 bps \ndownlink_lostrate| 本地拉取远端音频时下行的丢包率,范围 [0, 100] \nuplink_rtt| 远端音频上行的网络延时,单位 ms \nuplink_lostrate| 远端音频上行的丢包率,范围 [0, 100] \n \n# 视频质量统计\n\n## 获取本地视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetLocalVideoTrackStats)\n接口获取当前本地的视频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/9425/QNLocalVideoTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前所统计视频的[质量等级](https://developer.qiniu.com/rtc/api/9454/QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/9550/multi_stream)文档 \nuplink_framerate| 本地视频上行的帧率,单位 fps \nuplink_bitrate| 本地视频上行的码率,单位 bps \nuplink_rtt| 本地视频上行的网络延时,单位 ms \nuplink_lostrate| 本地视频上行的丢包率,范围 [0, 100] \n \n## 获取远端视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#GetRemoteVideoTrackStats)\n接口获取当前远端的视频质量统计信息,并通过 trackID 来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/9444/QNRemoteVideoTrackStats)\n主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前订阅的视频的[质量等级](https://developer.qiniu.com/rtc/api/9454/QNTrackProfile),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/9550/multi_stream)文档 \ndownlink_framerate| 本地拉取远端视频时下行的帧率,单位 fps \ndownlink_bitrate| 本地拉取远端视频时下行的码率,单位 bps \ndownlink_lostrate| 本地拉取远端视频时下行的丢包率,范围 [0, 100] \nuplink_rtt| 远端视频上行的网络延时,单位 ms \nuplink_lostrate| 远端视频上行的丢包率,范围 [0, 100] \n \n# 示例代码\n\n上述已经简单介绍了质量统计信息的获取方式,相对应的示例代码可参考[体验 demo](https://github.com/pili-\nengineering/QNRTC-Windows)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >错误码\n\n# 错误码\n\n最近更新时间: 2022-03-24 15:40:56\n\n本文主要介绍 QNRTC SDK 各端相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nSUCCESS| 0| 无错误| 无 \nERROR_TOKEN_ERROR| 10001| 房间 Token 错误| 表示您提供的房间 token 不符合七牛 token 签算规则,详情请参考\n[RoomToken 签发服务](https://doc.qnsdk.com/rtn/docs/server_overview#1) \nERROR_TOKEN_EXPIRED| 10002| 房间 Token 过期| 表示您的房间 token 过期,需要重新生成 token 再加入 \nERROR_PLAYER_ALREADY_EXIST| 10022| 房间内已经有同名用户|\n后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nERROR_MEDIA_CAP_NOT_SUPPORT| 10054| 媒体协商失败| 表示该设备不支持指定的音视频格式,无法进行连麦的操作 \nERROR_AUTH_FAILED| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 token 验证失败,建议检查签算\ntoken 的信息是否异常,若 token 无误,可重新尝试加入房间 \nERROR_RECONNECT_FAILED| 21003| 30s 内未能重连成功或者重连时房间已被销毁| 建议检查网络并重新申请 token\n加入房间。当发生该错误时,之前创建的转推任务将被服务销毁,如有需要,应在下次成功加入房间后按业务需要恢复 \nERROR_FATAL| 21005| 非预期错误| 表示 RTC 生命周期异常,需要释放资源并重新初始化 \n \n> **SDK 重连机制:**\n>\n> * SDK 内部会尝试无限重连\n> * 如果 30s 内无法完成有效的重连过程,则超时后的重连请求在到达 RTC 服务后会抛出 `ERROR_RECONNECT_FAILED` 错误\n>\n\n# 设备采集相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_DEVICE_CAMERA_EVICTED| 23002| 摄像头被其他应用抢占| 请确认是否有其他应用抢占摄像头 \nERROR_MIC_INIT_FAILED| 23006| 系统麦克风初始化错误,无权限或者麦克风被占用|\n请确认应用是否获取音频录制的权限或者麦克风是否被占用 \nERROR_MIC_CAPTURE_FAILED| 23007| 麦克风录制失败| 可尝试取消发布并重新发布麦克风 Track \nErr_Speaker_Init_failed| 23008| 扬声器无权限或者被占用| 请确认应用是否获取音频播放的权限或者扬声器被占用 \n \n# 发布 Track 相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_INVALID_PARAMETER| 10053| 非法参数| 请检查待发布 Track 是否为本地 Track,并且不为空 \nERROR_INVALID_STATE| 21002| 非法状态| 请检查是否已经加入房间 \nERROR_FATAL| 21005| 非预期错误| RTC 生命周期异常,需要释放资源并重新初始化 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_NO_PERMISSION| 10051| 无操作权限| 请检查用户的 token 签算权限 \nERROR_INVALID_PARAMETER| 10053| 参数错误| 请检查操作的参数是否合法 \nERROR_INVALID_STATE| 21002| 状态异常| 请检查房间状态,加入房间后才可以创建转推任务 \nERROR_NETWORK_TIMEOUT| 21004| 操作超时| 请重新尝试操作 \nERROR_FATAL| 21005| 服务端错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \n \n# 跨房媒体转发相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nErr_Relay_Token_Invalid| 24000| Token 验证失败| 请确认 Token 签算是否正确 \nErr_Relay_Already_Start| 24001| 已开启跨房| 请勿重复操作 \nErr_Relay_Not_Start| 24002| 跨房没有开启| 请先开启跨房再进行操作 \nErr_Relay_Destination_Room_Not_Existed| 24003| 目标房间不存在| 请确认跨房的目标房间是否存在 \nErr_Relay_Player_In_Dest_Room| 24004| 用户不在目标房间内| 请确认用户是否在目标房间内 \nErr_Relay_Start_Failed| 24004| 跨房开启失败| 请确认跨房参数是否正确 \nErr_Invalid_Client_Mode| 24006| 使用场景不符| 请切换到互动直播场景 \nErr_Invalid_Client_Role| 24007| 用户角色不符| 请根据当前场景切换到指定角色再进行操作 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频迁移指南"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Windows >迁移指南\n\n# 迁移指南\n\n最近更新时间: 2022-03-24 15:05:01\n\nQNRTC Windows SDK v5.x 是基于 v3.x 版本开发的全量重构版本,简化了接口调用逻辑,提高了接口的易用性,提供了更友好的事件监听机制。\n\n# 升级指南\n\n> * **由于 QNRTC Windows SDK v5.x 向下不兼容**\n> ,因此,如果您是老版本用户并希望升级到最新版本以获得更好的用户体验,可参考本文提供的升级指南进行迁版本升级。\n> * 老版本文档可查看 [3.x 及之前版本的相关文档](https://doc.qnsdk.com/rtn/windows)。\n>\n\n## 改动简介\n\n5.x 版本优化了 SDK 接口调用逻辑,主要改动如下:\n\n### 优化实时音视频管理方式\n\n在 5.x 版本 SDK 中,我们提供了 [QNRTC](https://developer.qiniu.com/rtc/api/9445/QNRTC) 和\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient) 两个类来替代\n`QNRoomInterface` 、 `QNVideoInterface` 和 `QNAudioInterface` 来进行 SDK 的初始化、track\n的创建以及房间的管理等操作。其中:\n\n * [QNRTC](https://developer.qiniu.com/rtc/api/9445/QNRTC) 主要负责处理 SDK 的初始化以及本地音视频 track 的创建采集等房间无关的操作。\n * [QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient) 主要负责处理房间的加入、离开,音视频 track 的发布、订阅等房间交互相关的操作。\n\n上述管理方式的改动将影响到 SDK 的主要交互流程,若您需要升级,可以参考 [RTC v5.x\n使用指南](https://developer.qiniu.com/rtc/development_guidelines/9544/guidelines-\nwindows) 的使用姿势分模块进行更新。\n\n### 优化音视频 track 的定义及使用方式\n\n区别于 3.x 版本所有 track 均使用 `QNTrackInfo`,在 5.x 版本 SDK 中,我们细化了音视频 track 的分类,基于不同类型的\ntrack 提供了不同的控制接口,新版本的 track 对本地 track 和远端 track 做了区分,继承结构定义如下:\n\n * [QNTrack](https://developer.qiniu.com/rtc/api/9445/QNTrack)\n * [QNLocalTrack](https://developer.qiniu.com/rtc/api/9422/QNLocalTrack)\n * [QNLocalAudioTrack](https://developer.qiniu.com/rtc/api/9420/QNLocalAudioTrack)\n * [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/9433/QNMicrophoneAudioTrack)\n * [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/9409/QNCustomAudioTrack)\n * [QNLocalVideoTrack](https://developer.qiniu.com/rtc/api/9424/QNLocalVideoTrack)\n * [QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/9404/QNCameraVideoTrack)\n * [QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/9412/QNCustomVideoTrack)\n * [QNScreenVideoTrack](https://developer.qiniu.com/rtc/api/9448/QNScreenVideoTrack)\n * [QNRemoteTrack](https://developer.qiniu.com/rtc/api/9440/QNRemoteTrack)\n * [QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/9438/QNRemoteAudioTrack)\n * [QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/9443/QNRemoteVideoTrack)\n\n> 注意:本地仅支持创建一路音频 track,重复创建音频 track 将会返回 null。\n\n5.x 版本除了对音视频 track 的结构进行了调整,还将部分 track 的操作接口从 `QNRoomInterface` 、\n`QNVideoInterface` 、 `QNAudioInterface` 和 `QNTrackInfo` 移到了 track\n上,包括采集、渲染、以及音视频回调监听的设置等。更详细接口定义请参考对应的 API 文档。\n\n### 优化事件监听接口\n\nv5.x 细化了不同场景下的事件监听,移除了 `QNRoomListener`、`QNVideoListener` 和 `QNAudioListener`\n回调监听。新版本事件监听定义如下:\n\n * [QNClientEventListener:](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener) 核心回调接口,定义了房间相关的回调事件,包括房间连接状态、用户加入离开状态等\n * [QNPublishResultCallback:](https://developer.qiniu.com/rtc/api/9435/QNPublishResultCallback) 核心回调接口,定义了 Publish 结果的回调事件\n * [QNLocalAudioFrameListener:](https://developer.qiniu.com/rtc/api/9419/QNLocalAudioFrameListener) 本地音频数据帧回调接口\n * [QNLocalVideoFrameListener:](https://developer.qiniu.com/rtc/api/9423/QNLocalVideoFrameListener) 本地视频数据帧回调接口\n * [QNRemoteAudioFrameListener:](https://developer.qiniu.com/rtc/api/9436/QNRemoteAudioFrameListener) 远端音频频数据帧回调接口\n * [QNRemoteVideoFrameListener:](https://developer.qiniu.com/rtc/api/9442/QNRemoteVideoFrameListener) 远端视频数据帧回调接口\n * [QNRemoteAudioMixedFrameListener:](https://developer.qiniu.com/rtc/api/9437/QNRemoteAudioMixedFrameListener) 远端音频数据混音后的回调\n * [QNLiveStreamingListener:](https://developer.qiniu.com/rtc/api/9418/QNLiveStreamingListener) CDN 转推相关回调接口,监听任务转推成功、合流布局更新等事件\n * [QNTrackInfoChangedListener:](https://developer.qiniu.com/rtc/api/9453/QNTrackInfoChangedListener) 音视频 track 信息变化监听接口,监听大小流切换、track 静默状态改变等事件\n\n## 核心步骤迁移详解\n\n为了更方便您的版本迁移,本部分详细介绍了新老版本针对通话核心步骤的不同处理方式。\n\n### 初始化\n\n3.x 及之前的版本,初始化操作需要同时调用 `QNRoomInterface` 、 `QNVideoInterface` 和\n`QNAudioInterface` 的相关方法,示例代码如下:\n\n \n \n _rtc_room_interface = qiniu_v2::QNRoomInterface::ObtainRoomInterface();\n _rtc_room_interface->SetRoomListener(this);\n _rtc_video_interface = _rtc_room_interface->ObtainVideoInterface();\n _rtc_video_interface->SetVideoListener(this);\n _rtc_audio_interface = _rtc_room_interface->ObtainAudioInterface();\n _rtc_audio_interface->SetAudioListener(this);\n \n\n5.x 版本,初始化操作仅需通过 [QNRTC](https://developer.qiniu.com/rtc/api/9445/QNRTC)\n即可实现,示例代码如下:\n\n \n \n _rtc_client_ptr = QNRTC::CreateClient();\n _rtc_client_ptr->SetQNClientEventListener(this);\n _rtc_client_ptr->SetQNPublishResultCallback(this);\n _rtc_client_ptr->SetLiveStreamingListener(this);\n \n\n更详细的 5.x\n版本初始化使用方式可参考[初始化使用指南](https://developer.qiniu.com/rtc/development_guidelines/9545/user-\nguidance-windows)\n\n### 加入房间\n\n3.x 及之前的版本,通过 `_rtc_room_interface->JoinRoom` 的方式加入房间,示例代码如下:\n\n \n \n _rtc_room_interface->JoinRoom(_room_token); // 加入房间\n \n // 加入房间成功后会触发如下回调\n void CRtcDemoV2::OnJoinResult(\n int error_code_, \n const string& error_str_,\n const UserInfoList& user_list_,\n const TrackInfoList& tracks_list_,\n bool reconnect_flag_)\n {\n }\n \n\n5.x 版本加入房间首先需要创建\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient) 对象,再通过\n[QNRTCClient.Join](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Join)\n的方式加入房间,示例代码如下:\n\n \n \n _rtc_client_ptr->Join(_room_token); // 加入房间\n \n // 加入房间成功后会触发如下回调\n void CRtcDemoV2::OnConnectionStateChanged(qiniu::QNConnectionState state, const qiniu::QNConnectionDisconnectedInfo& info)\n {\n if (state == CONNECTED) {\n _wnd_status_bar.SetText(_T(\"登录成功!\"), 1, 0);\n } \n }\n \n\n实现差异:\n\n * 5.x 版本移除了 `QNRoomInterface` 的接口调用,使用 [QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient) 进行房间的相关操作\n * 5.x 版本房间连接状态监听回调改为 `QNClientEventListener.OnConnectionStateChanged`,监听事件包括加入房间成功、失败以及成功离开房间等\n\n更详细的 5.x\n版本房间管理使用方式可参考[房间管理使用指南](https://developer.qiniu.com/rtc/development_guidelines/9547/room-\nmanagement-windows)\n\n### 创建本地 track\n\n3.x 及之前的版本,通过 `CreateVideoTrackInfo` 和 `CreateAudioTrackInfo`创建本地\ntrack,示例代码如下:\n\n \n \n // 创建本地音频 track\n auto audio_track = qiniu_v2::QNTrackInfo::CreateAudioTrackInfo(\n MICROPHONE_TAG,\n 32000,\n false\n );\n \n // 创建本地 Camera 视频 track\n auto video_track_ptr = qiniu_v2::QNTrackInfo::CreateVideoTrackInfo(\n std::to_string(source_id),\n SCREENCASTS_TAG,\n GetDlgItem(IDC_STATIC_VIDEO_PREVIEW2)->m_hWnd,\n 640,\n 480,\n 25,\n 2000000,\n qiniu_v2::tst_ScreenCasts,\n false,\n _enable_simulcast\n );\n \n\n5.x 版本通过 [QNRTC](https://developer.qiniu.com/rtc/api/9445/QNRTC) 创建本地\ntrack,示例代码如下:\n\n \n \n // 创建本地音频 track\n QNMicrophoneAudioTrackConfig micro_info = { 32000,MICROPHONE_TAG };\n _microphone_audio_track_ptr = QNRTC::CreateMicrophoneAudioTrack(micro_info);\n \n // 创建本地 Camera 视频 track\n QNCameraVideoTrackConfig camera_info = { width,height,30,2000000,video_dev_id,CAMERA_TAG,m_hWnd,_enable_simulcast };\n _camera_track_ptr = QNRTC::CreateCameraVideoTrack(camera_info);\n \n\n实现差异:\n\n * 5.x 版本移除了 `QNTrackInfo` 创建 track 的接口,改用 [QNRTC](https://developer.qiniu.com/rtc/api/9445/QNRTC) 相关接口创建\n * 5.x 版本 track 相关的配置通过 [QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/api/9406/QNCameraVideoTrackConfig) 或者 [QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/api/9434/QNMicrophoneAudioTrackConfig) 等类似 Config 实现。\n\n更详细的 5.x\n版本音视频采集使用方式可参考[音视频采集使用指南](https://developer.qiniu.com/rtc/development_guidelines/9546/audio-\nand-video-collection-windows)\n\n### track 的使用\n\n3.x 及之前的版本对 track 的大部分操作都由 `QNRoomInterface` 、 `QNVideoInterface` 和\n`QNAudioInterface` 来实现,这里以部分功能举例,示例代码如下:\n\n \n \n // 静默本地 track\n _rtc_room_interface->MuteVideo(itor->GetTrackId(), true); // 设置静默状态\n \n _rtc_audio_interface->SetAudioVolume(unicode2utf(local_userid, pos / 100.0f); // 设置本地音频采集音量\n \n\n5.x 版本对 track 的操作都由对应的 track 来实现,示例代码如下:\n\n \n \n _microphone_audio_track_ptr->SetMuted(true); // 静默本地 track\n \n _microphone_audio_track_ptr->SetVolume(pos / 100.0f); // 设置本地音频采集音量\n \n\n实现差异:\n\n * 5.x 版本将 track 相关操作接口都移交给对应的 track 来实现,移除了 `QNRoomInterface` 、 `QNVideoInterface` 和 `QNAudioInterface` 的相关调用\n\n> 上述示例代码仅展示了部分功能的示例,更多 track 相关的接口使用请参考对应的 track 接口文档\n\n### 发布本地 track\n\n3.x 及之前的版本发布 track 通过 `QNRoomInterface` 来实现,示例代码如下:\n\n \n \n // 发布本地 track\n _rtc_room_interface->PublishTracks(track_list);\n \n // 发布成功后,会触发 QNRTCEngineEventListener.onLocalPublished 回调\n void CRtcDemoV2::OnPublishTracksResult(int error_code_, \n const string& error_str_, const qiniu_v2::TrackInfoList& track_info_list_)\n {\n }\n \n\n5.x 版本发布 track 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n _rtc_client_ptr->Publish(track_list);\n // 发布后,会触发 QNPublishResultCallback 回调\n class QNPublishResultCallback\n {\n public:\n /**\n * 发布成功后触发此回调\n */\n virtual void OnPublished() = 0;\n \n /**\n * 发布失败后触发此回调\n *\n * @param errorCode 错误码\n * @param errorMessage 错误消息\n */\n virtual void OnPublishError(int errorCode, const std::string& errorMessage) = 0;\n protected:\n ~QNPublishResultCallback() {}\n };\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.Publish](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Publish) 来实现本地 track 的发布,移除了 `QNRoomInterface` 的相关调用\n * 5.x 版本发布结果回调改为了 [QNPublishResultCallback](https://developer.qiniu.com/rtc/api/9435/QNPublishResultCallback),可在 [QNRTCClient.SetQNPublishResultCallback](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#SetQNPublishResultCallback) 中传入,移除了 `QNRoomListener.OnPublishTracksResult` 回调\n\n更详细的 5.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/9548/publish-\nand-subscribe-windows)\n\n### 订阅远端 track\n\n3.x 及之前的版本订阅 track 通过 `QNRoomInterface` 来实现,示例代码如下:\n\n \n \n _rtc_room_interface->SubscribeTracks(sub_tracks_list); // 不支持自动订阅,需手动订阅订阅远端 track\n \n // 订阅成功后,会触发 QNRoomInterface.OnSubscribeTracksResult 回调\n void CRtcDemoV2::OnSubscribeTracksResult(int error_code_, \n const std::string &error_str_, const qiniu_v2::TrackInfoList &track_info_list_)\n { \n }\n \n\n5.x 版本订阅 track 通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n _rtc_client_ptr->SetAutoSubscribe(true); // 设置是否自动订阅远端 track,默认关闭\n _rtc_client_ptr->Subscribe(trackList); // 手动订阅场景下,订阅远端 track,支持可变参数\n \n // 订阅成功后,会触发 QNClientEventListener.OnSubscribed 回调\n void CRtcDemoV2::OnSubscribed(\n const std::string& remoteUserID,\n const qiniu::RemoteAudioTrackList& remoteAudioTracks,\n const qiniu::RemoteVideoTrackList& remoteVideoTracks)\n {\n }\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.Subscribe](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Subscribe) 来实现对 track 的订阅,移除了 `QNRoomInterface` 的相关调用\n * 5.x 版本订阅结果通过 [QNClientEventListener.OnSubscribed](https://developer.qiniu.com/rtc/api/9407/QNClientEventListener#OnSubscribed) 回调,移除了 `QNRoomInterface` 相关的回调\n\n更详细的 5.x\n版本发布和订阅使用方式可参考[发布和订阅使用指南](https://developer.qiniu.com/rtc/development_guidelines/9548/publish-\nand-subscribe-windows)\n\n### CDN 转推\n\n3.x 及之前的版本 CDN 转推通过 `QNRoomInterface` 来实现,示例代码如下:\n\n \n \n // 创建并配置单路转推任务,配置步骤省略\n _rtc_room_interface->CreateForwardJob(forwardInfo); // 开始单路转推任务\n _rtc_room_interface->StopForwardJob(_custom_forward_id, 0); // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n _rtc_room_interface->CreateMergeJob(job_desc, background, watermarks); // 开始合流转推任务\n _rtc_room_interface->SetMergeStreamlayouts(add_tracks_list, remove_tracks_list); // 更新、移除合流布局\n _rtc_room_interface->StopMergeStream(_custom_merge_id, 0); // 停止合流转推任务\n \n // 创建成功后会触发 QNRTCEngineEventListener 的相关回调\n void CRtcDemoV2::OnCreateForwardResult(\n const std::string& job_id_,\n int error_code_,\n const std::string& error_str_)\n {\n }\n \n void CRtcDemoV2::OnCreateMergeResult(\n const std::string& job_id_,\n int error_code_,\n const std::string& error_str_)\n {\n }\n \n\n5.x 版本 CDN 转推通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n // 设置 CDN 转推状态监听\n _rtc_client_ptr->SetLiveStreamingListener(this);\n \n // 创建并配置单路转推任务,配置步骤省略\n _rtc_client_ptr->StartLiveStreaming(forwardInfo); // 开始单路转推任务\n _rtc_client_ptr->StopLiveStreaming(forwardInfo); // 停止单路转推任务\n \n // 创建并配置合流转推任务,配置步骤省略\n _rtc_client_ptr->StartLiveStreaming(job_desc); // 开始合流转推任务\n _rtc_client_ptr->SetTranscodingLiveStreamingTracks(_custom_merge_id, add_tracks_list); // 更新合流布局\n _rtc_client_ptr->RemoveTranscodingLiveStreamingTracks(_custom_merge_id, remove_tracks_list); // 移除合流布局\n _rtc_client_ptr->StopLiveStreaming(job_desc); // 停止合流转推任务\n \n\n实现差异:\n\n * 5.x 版本通过 [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9414/QNDirectLiveStreamingConfig) 代替 `ForwardOptInfo` 实现单路转推的配置;通过 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/9456/QNTranscodingLiveStreamingConfig) 代替 `MergeJob` 实现合流转推的配置;通过 [QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/9458/QNTranscodingLiveStreamingTrack) 代替 `MergeOptInfo` 实现合流布局的控制\n * 5.x 版本通过 [QNLiveStreamingListener](https://developer.qiniu.com/rtc/api/9418/QNLiveStreamingListener) 代替 `QNRoomListener` 相关方法来实现 CDN 转推状态的监听\n\n更详细的 5.x 版本 CDN 转推使用方式可参考 [CDN\n转推使用指南](https://developer.qiniu.com/rtc/development_guidelines/9549/turn-the-\ncdn-push-windows)\n\n### 离开房间\n\n3.x 及之前的版本离开房间通过 `QNRoomInterface` 来实现,示例代码如下:\n\n \n \n _rtc_room_interface->LeaveRoom(); // 离开房间\n \n\n5.x 版本离开房间通过\n[QNRTCClient](https://developer.qiniu.com/rtc/api/9446/QNRTCClient)\n来实现,示例代码如下:\n\n \n \n _rtc_client_ptr->Leave(); // 离开房间\n \n\n实现差异:\n\n * 5.x 版本通过 [QNRTCClient.Leave](https://developer.qiniu.com/rtc/api/9446/QNRTCClient#Leave) 来实现离开房间的操作,移除了 `QNRoomInterface` 的相关调用\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频背景音乐混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >背景音乐混音\n\n# 背景音乐混音\n\n最近更新时间: 2022-06-20 15:19:48\n\n本文主要介绍连麦过程中添加背景音乐混音的使用场景。\n\n> * 背景音乐混音支持本地文件和在线文件,支持的音频文件格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n>\n\n使用方式如下:\n\n# 创建 QNAudioMusicMixer\n\nSDK 当前仅支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux) 的混音功能,可以通过\n[QNMicrophoneAudioTrack.CreateAudioMusicMixer](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux#CreateAudioMusicMixer) 来创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11989/QNAudioMusicMixer-\nLinux) 对象\n\n \n \n std::string file_path = \"../example.mp3\";\n QNAudioMusicMixer* audio_mixer = microphone_audio_track->CreateAudioMusicMixer(file_path, listener);\n \n\n其中,[QNAudioMusicMixerListener](https://developer.qiniu.com/rtc/api/11990/QNAudioMusicMixerListener-\nLinux) 为混音状态监听器,监听回调定义如下:\n\n \n \n class QINIU_EXPORT_DLL QNAudioMusicMixerListener {\n public:\n /**\n * 错误回调\n * \n * @param error_code 错误码\n * @param error_message 错误信息\n */\n virtual void OnAudioMusicMixerError(int error_code,\n const std::string& error_message) = 0;\n /**\n * 背景音乐混音状态变化回调\n *\n * @param music_state_ 背景音乐混音状态\n */\n virtual void OnAudioMusicMixerStateChanged(QNMusicMixerState music_state) = 0;\n \n /**\n * 背景音乐播放进度回调\n *\n * @param current_pos 背景音乐播放当前进度\n */\n virtual void OnAudioMusicMixing(int64_t current_pos) = 0;\n \n protected:\n ~QNAudioMusicMixerListener(){};\n };\n \n\n其中,混音状态的改变都会通过\n[QNAudioMusicMixerListener.OnAudioMusicMixerStateChanged](https://developer.qiniu.com/rtc/api/11990/QNAudioMusicMixerListener-\nLinux#onStateChanged) 回调通知到上层。回调的监听状态可参考\n[QNMusicMixerState](https://developer.qiniu.com/rtc/api/11991/QNMusicMixerState-\nLinux)。混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/11369/error-\ncode-linux)\n\n# 混音控制\n\n在创建了\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11989/QNAudioMusicMixer-\nLinux) 实例后,可以通过该实例提供的混音控制接口进行混音操作的控制,使用代码参考如下:\n\n \n \n // 开始混音,成功后会触发 QNMusicMixerState.kStateMixing 状态的回调\n mAudioMixer->Start();\n // 停止混音,成功后会触发 QNMusicMixerState.kStateStopped 状态的回调\n mAudioMixer->Stop();\n // 恢复混音,成功后会触发 QNMusicMixerState.kStateMixing 状态的回调\n mAudioMixer->Resume();\n // 暂停混音,成功后会触发 QNMusicMixerState.kStatePaused 状态的回调\n mAudioMixer->Pause();\n // 跳到指定位置进行混音,成功后回触发 QNMusicMixerState.kStateMixing 状态的回调\n mAudioMixer->SeekTo(position_ms);\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11989/QNAudioMusicMixer-\nLinux)。\n\n# 音量控制\n\n混音场景下,主要包含两种音量设置:**麦克风混音音量** 、**背景音乐混音音量** 。音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack.SetVolume](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-Linux#SetVolume) 接口进行配置。\n * **背景音乐混音音量** :可以通过 [QNAudioMusicMixer.SetMixingVolume](https://developer.qiniu.com/rtc/api/11989/QNAudioMusicMixer-Linux#SetMixingVolume) 接口进行配置。\n\n参考代码如下:\n\n \n \n microphone_audio_track->SetVolume(0.5f); // 设置麦克风采集(混音)音量\n audio_music_mixer->SetMixingVolume(0.5f); // 设置背景音乐的混音音量\n \n\n# 切换音乐\n\n背景音乐混音**仅支持同时混合一路背景音乐** ,若需要切换背景音乐,可通过重新调用\n[QNMicrophoneAudioTrack.CreateAudioMusicMixer](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux#CreateAudioMusicMixer) 创建\n[QNAudioMusicMixer](https://developer.qiniu.com/rtc/api/11989/QNAudioMusicMixer-\nLinux) 实例实现。参考代码如下:\n\n \n \n // 使用 music-1 进行混音\n QNAudioMusicMixer* audio_music_mixer = microphone_audio_track->CreateAudioMusicMixer(music1_file_path, listener); // 创建基于 music-1 的混音控制器\n audio_music_mixer->Start(); // 开始 music-1 的混音\n audio_music_mixer->Stop(); // 停止 music-1 的混音\n microphone_audio_track->DestroyAudioMusicMixer(audio_music_mixer); // 销毁第一个 mixer\n // 切换音乐到 music-2 进行混音\n audio_music_mixer = microphone_audio_track->CreateAudioMusicMixer(music2_file_path, listener); // 创建基于 music-2 的混音控制器\n audio_music_mixer->Start(); // 开始 music-2 的混音\n audio_music_mixer->Stop(); // 停止 music-2 的混音\n \n\n# 注意事项\n\n 1. **混音** 功能会将混音音乐与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未发布,则混音操作将失效。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频多音效混音"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >多音效混音\n\n# 多音效混音\n\n最近更新时间: 2022-06-20 15:34:30\n\n本文主要介绍连麦过程中添加多重音效混音的使用场景。\n\n> * 音效混音支持本地文件和在线文件,支持的音频格式为:aac、mp3、mp4、ogg、opus、wav、m4a、flac\n> * 请尽量使用本地音乐文件,避免因为网络资源的异常导致的混音卡顿等情况\n>\n\n使用方式如下:\n\n# 创建 QNAudioEffectMixer\n\nSDK 当前仅支持基于\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux) 的多重音效混音功能,可以通过\n[QNMicrophoneAudioTrack.CreateAudioEffectMixer](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux#CreateAudioEffectMixer) 接口来创建\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-\nLinux) 对象\n\n \n \n QNAudioEffectMixer* audio_effect_mixer = microphone_audio_track.CreateAudioEffectMixer(listener);\n \n\n其中,[QNAudioEffectMixerListener](https://developer.qiniu.com/rtc/api/11988/QNAudioEffectMixerListener-\nLinux) 为音效混音监听器,监听回调定义如下:\n\n \n \n class QINIU_EXPORT_DLL QNAudioEffectMixerListener {\n public:\n /**\n * 错误回调\n *\n * @param error_code 错误码\n * @param error_message 错误信息\n */\n virtual void OnAudioEffectMixerError(int error_code,\n const std::string& error_message) = 0;\n \n /**\n * 某音效播放完成的回调\n *\n * @param effect_id 音效 id\n */\n virtual void OnAudioEffectFinished(int effect_id) = 0;\n protected:\n ~QNAudioEffectMixerListener(){};\n };\n \n\n其中,混音场景下的错误码可参考[混音相关错误码](https://developer.qiniu.com/rtc/development_guidelines/11369/error-\ncode-linux)\n\n# 创建 QNAudioEffect\n\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11986/QNAudioEffect-Linux)\n为音效文件的配置类,可通过\n[QNAudioEffectMixer.CreateAudioEffect](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-\nLinux#CreateAudioEffect) 接口进行创建,每一个音效文件都需对应一个\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11986/QNAudioEffect-Linux)\n实例,使用代码参考如下:\n\n \n \n string file_path = \"../effect.mp3\";\n QNAudioEffect* audio_effect = audio_effect_mixer->CreateAudioEffect(effect_id, file_path);\n \n\n**其中,effect_id 为音效文件的唯一标识符,可自行生成并维护,该标识符为控制一系列音效混音操作的依据,需保证唯一。**\n\n# 混音控制\n\n在创建了\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-\nLinux) 音效混音控制器实例和\n[QNAudioEffect](https://developer.qiniu.com/rtc/api/11986/QNAudioEffect-Linux)\n音效文件实例后,可以通过如下接口进行音效混音操作的控制。\n\n使用代码参考如下:\n\n \n \n // 开始指定音效混音\n audio_effect_mixer->Start(audio_effect.GetID());\n // 停止指定音效混音\n audio_effect_mixer->Stop(audio_effect.GetID());\n // 恢复指定音效混音\n audio_effect_mixer->Resume(audio_effect.GetID());\n // 暂停指定音效混音\n audio_effect_mixer->Pause(audio_effect.GetID());\n // 停止所有正在混音的音效\n audio_effect_mixer->StopAll();\n // 暂停所有正在混音的音效\n audio_effect_mixer->PauseAll();\n // 恢复所有已经暂停混音的音效\n audio_effect_mixer->ResumeAll();\n \n\n上述为混音基本流程的控制,更多控制方式请参考\n[QNAudioEffectMixer](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-\nLinux)。\n\n# 音量控制\n\n混音场景下,主要包含两种音量设置:**麦克风混音音量** 、**音效混音音量** 。音量的设置方式参考如下:\n\n * **麦克风混音音量** :可以通过 [QNMicrophoneAudioTrack->SetVolume](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-Linux#SetVolume) 接口进行配置。\n * **音效混音音量** :可以通过 [QNAudioEffectMixer.SetVolume](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-Linux#SetVolume) 和 [QNAudioEffectMixer.SetAllEffectsVolume](https://developer.qiniu.com/rtc/api/11987/QNAudioEffectMixer-Linux#SetAllEffectsVolume) 接口分别对指定音效和所有音效进行音量配置。\n\n参考代码如下:\n\n \n \n microphone_audio_track.SetVolume(0.5f); // 设置麦克风采集(混音)音量\n audio_effect_mixer->SetVolume(audio_effect.GetID(), 0.5f); // 设置指定音效的混音音量\n audio_effect_mixer->SetAllEffectsVolume(0.5f); // 设置所有音效的混音音量\n \n\n# 注意事项\n\n 1. **混音** 功能会将混音音频与当前已发布的音频 Track 数据混合并推送出去,若当前的音频 Track 尚未发布,则混音操作将失效。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >初始化\n\n# 初始化\n\n最近更新时间: 2022-03-28 16:03:48\n\n本部分介绍了实时音视频的初始化方式及其配置项。\n\n在加入房间前,SDK 提供了一系列的方法用来进行初始化配置。在配置好后通过 QNRTC::CreateClient 创建 QNRTCClient对象 即可。\n\n## 初始化\n\n \n \n qiniu::QNRTCSetting setting;\n qiniu::QNRTC::Init(setting, this);\n \n\n## 设置日志等级\n\n通过调用 `QNRTC::SetLogFile` 设置 SDK 的日志等级\n\n \n \n static int32_t SetLogFile(QNLogLevel level, const std::string& dir_name, const std::string& file_name);\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2022-05-24 22:25:56\n\n音视频交互的基本单位,本部分介绍音视频 track 的创建及采集等功能的使用。\n\n## 摄像头视频 Track\n\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/11198/QNCameraVideoTrack-\nLinux) 为摄像头采集的本地 track,其创建方式如下:\n\n \n \n QNCameraVideoTrackConfig video_track_config;\n video_track_config.id = camera_device_id;\n video_track_config.capture_config = {width, height, fps};\n video_track_config.encoder_config = {width, height, fps, bitrate};\n QNCameraVideoTrack video_track = QNRTC::CreateCameraVideoTrack(video_track_config);\n \n\n其中:\n\n[QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/api/11201/QNCameraVideoTrackConfig-\nLinux) 用来配置摄像头采集参数和编码参数。\n\n在创建好\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/api/11198/QNCameraVideoTrack-\nLinux) 之后,就可以通过调用 SDK 提供的相关方法进行摄像头的相关操作:\n\n### 开启/关闭镜像\n\n \n \n virtual void SetMirror(bool mirror) = 0;\n \n\n## 外部导入视频 track\n\nSDK 外部导入视频连麦仅支持导入 **kI420 数据** 格式的数据,使用方式如下:\n\n### I420 track\n\n#### 创建 I420 track\n\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/11205/QNCustomVideoTrack-\nLinux) 为外部数据导入视频 track,创建方式如下:\n\n \n \n QNCustomVideoTrackConfig video_track_config;\n video_track_config.encoder_config = {width, height, fps, bitrate};\n QNCustomVideoTrack video_track = QNRTC::CreateCustomVideoTrack(video_track_config);\n \n\n其中,[QNCustomVideoTrackConfig](https://developer.qiniu.com/rtc/api/11206/QNCustomVideoTrackConfig-\nLinux) 用来配置视频的编码参数,包括分辨率、帧率和码率(kbps)等。\n\n#### 导入 I420 数据\n\nSDK 支持导入 I420 的数据,在创建好\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/11205/QNCustomVideoTrack-\nLinux) 之后,可通过如下方式推送数据:\n\n \n \n /**\n * 推送自定义视频帧\n *\n * @param data 视频数据\n * @param data_size 数据长度\n * @param width 图像宽度\n * @param height 图像高度\n * @param timestamp_us 时间戳,注意单位为:微妙\n * @param video_frame_type 视频原始格式,目前支持:kI420, kH264Raw\n * @param rotation 导入后旋转角度,如果不需要旋转则使用默认值 kVideoRotation0, H264 不支持这个属性\n * 即可\n * @param mirror 导入后是否镜像, H264 不支持这个属性\n */\n virtual int32_t PushVideoFrame(const uint8_t* data, const uint32_t data_size,\n const int32_t width, const int32_t height,\n const int64_t timestamp_us,\n QNVideoFrameType video_frame_type,\n QNVideoRotation rotation,\n bool mirror = false) = 0;\n \n\n### H264 track\n\n#### 创建 H264 track\n\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/11205/QNCustomVideoTrack-\nLinux) 为外部数据导入视频 track,创建方式如下:\n\n \n \n // 注意: 初始化时, QNRTCSetting.encoder_type 需要设置为 kExternal\n \n QNCustomVideoTrackConfig video_track_config;\n // H264 编码配置\n video_track_config.encoder_config = {width, height, fps, bitrate};\n // 必须添加以下这句\n video_track_config.frame_type = QNVideoFrameType::kH264Raw;\n QNCustomVideoTrack video_track = QNRTC::CreateCustomVideoTrack(video_track_config);\n \n\n#### 导入 H264 数据\n\nSDK 支持导入 H264 的数据,在创建好\n[QNCustomVideoTrack](https://developer.qiniu.com/rtc/api/11205/QNCustomVideoTrack-\nLinux) 之后,可通过如下方式推送数据:\n\n \n \n /**\n * 推送自定义视频帧\n *\n * @param data 视频数据,必须为完整的一帧 h264 数据\n * @param data_size 数据长度\n * @param width 图像宽度\n * @param height 图像高度\n * @param timestamp_us 时间戳,注意单位为:微妙\n * @param video_frame_type 视频原始格式,目前支持:kI420, kH264Raw\n * @param rotation 导入后旋转角度,如果不需要旋转则使用默认值 kVideoRotation0, H264 不支持这个属性\n * 即可\n * @param mirror 导入后是否镜像, H264 不支持这个属性\n */\n virtual int32_t PushVideoFrame(const uint8_t* data, const uint32_t data_size,\n const int32_t width, const int32_t height,\n const int64_t timestamp_us,\n QNVideoFrameType video_frame_type,\n QNVideoRotation rotation,\n bool mirror = false) = 0;\n \n\n## 麦克风音频 Track\n\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux) 为麦克风采集的音频 track,如需以麦克风采集数据作为音频源,仅需创建一个\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\nLinux) 并发布即可,其创建方式如下:\n\n \n \n QNMicrophoneAudioTrackConfig audio_track_config;\n audio_track_config.audio_quality = {sample_rate, channels, bits_per_sample, bitrate};\n QNMicrophoneAudioTrack audio_track = QNRTC::CreateMicrophoneAudioTrack(audio_track_config);\n \n\n其中,[QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/api/11211/QNMicrophoneAudioTrackConfig-\nLinux) 包括音频的码率等,这里麦克风的采样率、声道数等由系统录制设备控制\n\n> **注意:SDK 当前仅支持一路音频\n> Track,因此,在创建了[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\n> Linux) 之后,将无法再创建\n> [QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/11203/QNCustomAudioTrack-\n> Linux) 实例**\n\n## 外部导入音频 Track\n\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/11203/QNCustomAudioTrack-\nLinux) 为外部导入音频 track,如需导入音频数据作为音频源,仅需创建一个\n[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/11203/QNCustomAudioTrack-\nLinux) 即可,然后通过调用 `QNCustomAudioTrack.PushAudioFrame` 进行外部音频数据的导入。\n\n支持的音频数据格式为:PCM 格式。\n\n使用方式可参考如下示例:\n\n \n \n /**\n * 推送自定义音频帧\n *\n * @param data 音频数据\n * @param data_size 数据长度\n * @param bits_per_sample 位宽,即每个采样点占用位数\n * @param sample_rate 采样率\n * @param channels 声道数\n */\n virtual int32_t PushAudioFrame(const uint8_t* data, uint32_t data_size,\n uint32_t bits_per_sample, uint32_t sample_rate,\n uint32_t channels) = 0;\n \n\n> **注意:SDK 当前仅支持一路音频\n> Track,因此,在创建了[QNCustomAudioTrack](https://developer.qiniu.com/rtc/api/11203/QNCustomAudioTrack-\n> Linux) 之后,将无法再创建\n> [QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/api/11210/QNMicrophoneAudioTrack-\n> Linux) 实例**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >房间管理\n\n# 房间管理\n\n最近更新时间: 2022-03-28 17:18:31\n\n房间表示一个多人的视频会话,本部分介绍如何进行房间管理,获取房间信息以及用户信息等常见功能。\n\n## 加入房间\n\n本地调用 [QNRTCClient.Join(String\ntoken)](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-Linux#Join) 通过\nroomToken 加入房间。\n\n \n \n virtual void Join(const std::string& token, const std::string& user_data = \"\") = 0;\n \n\n示例代码如下:\n\n \n \n client->Join(room_token);\n \n\n> 1. 请确保在 `QNConnectionState.kDisconnected` 状态下调用该接口加入房间,否则接口调用无效\n> 2. 加入房间时根据业务需求,每个用户可通过 `user_data` 携带自定义数据\n>\n\n关于 roomToken 在服务端的生成可查阅 [RoomToken\n的签算](https://doc.qnsdk.com/rtn/docs/rtn_startup)。\n\n本地加入房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n当成功加入房间后,会通过\n[QNClientEventListener.OnConnectionStateChanged](https://developer.qiniu.com/rtc/api/11261/QNClientEventListener-\nLinux#OnConnectionStateChanged) 接收到房间状态改变的通知\n\n \n \n class QNClientEventListener\n {\n public:\n // 当房间状态改变时会触发此回调,成功加入房间后,回调状态为 QNConnectionState.kConnected\n virtual void OnConnectionStateChanged(QNConnectionState state, const QNConnectionDisconnectedInfo& info) = 0;\n }\n \n\n**远端用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端用户加入房间时会触发此回调\n virtual void OnUserJoined(const std::string& remote_user_id, const std::string& user_data) = 0;\n }\n \n\n* * *\n\n## 离开房间\n\n本地调用\n[QNRTCClient.Leave()](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#Leave) 退出房间。本地退出房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当房间状态改变时会触发此回调,成功离开房间后,回调状态为 QNConnectionState.kDisconnected,QNConnectionDisconnectedInfo 回调 Reason 为 kLeave\n void OnConnectionStateChanged(QNConnectionState state, const QNConnectionDisconnectedInfo& info) = 0;\n }\n \n\n**远端用户收到的回调:**\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端用户离开房间时会触发此回调\n virtual void OnUserLeft(const std::string& remote_user_id) = 0;\n }\n \n\n* * *\n\n## 房间信息\n\n### 获取房间内远端用户信息\n\n本地可调用 [QNRTCClient.GetRemoteUsers(const std::string&\nuserId)](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetRemoteUsers%5B1/2%5D) 接口获取音视频通话房间中的指定用户。\n\n \n \n virtual QNRemoteUser& GetRemoteUsers(const std::string& userId) = 0;out/\n \n\n本地可调用\n[QNRTCClient.GetRemoteUsers()](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetRemoteUsers%5B2/2%5D) 接口获取音视频通话房间中的远端用户列表。\n\n \n \n virtual RemoteUserList& GetRemoteUsers() = 0;\n \n\n其中,[QNRemoteUser](https://developer.qiniu.com/rtc/api/11214/QNRemoteUser-\nLinux) 代表远端用户的信息,通过该对象可以获取指定 user 发布的音视频列表以及本地对其的订阅情况。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-03-28 17:17:24\n\n本部分介绍能够实现向房间发布或取消发布媒体流,订阅或停止订阅媒体流等操作。\n\n## 发布 Track\n\n发布 Track 前,需要对 Track\n进行配置和创建,详情请见[音视频采集](https://developer.qiniu.com/rtc/development_guidelines/11371/media-\ncapture-linux),创建好 Track 后即可将该 Track 通过 `QNRTCClient.Publish` 向房间内进行发布。\n\n \n \n virtual int Publish(LocalTrackList& track_list) = 0;\n \n\n其中,发布结果通过[QNPublishResultCallback](https://developer.qiniu.com/rtc/api/11283/QNPublishResultCallback-\nLinux) 回调了发布操作的结果通知,其接口定义如下:\n\n \n \n class QINIU_EXPORT_DLL QNPublishResultCallback\n {\n public:\n /**\n * 发布成功后触发此回调\n */\n virtual void OnPublished() = 0;\n \n /**\n * 发布失败后触发此回调\n *\n * @param error_code 错误码\n * @param error_message 错误消息\n */\n virtual void OnPublishError(int error_code, const std::string& error_message) = 0;\n protected:\n ~QNPublishResultCallback() {}\n };\n \n\n发布 Track 成功后,远端用户会收到如下通知回调:\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端 track 发布时会触发此回调\n virtual void OnUserPublished(const std::string& remote_user_id_, const RemoteTrackList& track_list) = 0;\n }\n \n\n## 取消发布 Track\n\n调用 `QNRTCClient.UnPublish` 取消发布本地媒体流。\n\n \n \n // 取消发布本地音视频 track,支持可变参数\n virtual int UnPublish(LocalTrackList& track_list) = 0;\n \n\n取消发布成功后,远端用户会收到如下通知回调:\n\n \n \n class QNClientEventListener\n {\n public:\n // 当远端 track 取消发布时会触发此回调\n virtual void OnUserUnpublished(const std::string& remote_user_id, const RemoteTrackList& track_list) = 0;\n }\n \n\n## 订阅远端 Track\n\n在 v4.x.x 版本后提供了默认自动订阅的功能,用户可以通过调用 `QNRTCClient.SetAutoSubscribe`\n进行对自动订阅功能的开启与关闭,默认为开启状态。\n\n \n \n virtual void SetAutoSubscribe(bool auto_subscribe) = 0;\n \n\n在自动订阅功能关闭时,用户可以通过调用 `QNRTCClient.Subscribe` 接口订阅远端 Tracks。\n\n \n \n // 订阅远端音视频 track,支持可变参数\n virtual void Subscribe(const RemoteTrackList& track_list) = 0;\n \n\n本地订阅远端用户媒体流成功后,会触如下回调:\n\n \n \n class QNClientEventListener \n {\n public:\n // 当成功订阅远端 track 时会触发此回调\n virtual void OnSubscribed(const std::string& remote_user_id, const RemoteAudioTrackList& remote_audio_track_list, const RemoteVideoTrackList& remote_video_track_list) = 0;\n }\n \n\n## 取消订阅远端 Track\n\n调用 `QNRTCClient.UnSubscribe` 接口取消订阅远端 Tracks。\n\n \n \n virtual void UnSubscribe(const RemoteTrackList& track_list) = 0;\n \n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >CDN转推\n\n# CDN转推\n\n最近更新时间: 2022-03-28 17:19:38\n\n本部分介绍了 CDN 转推的使用姿势及其应用场景。\n\n## 应用场景\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:单路流直播、多路流合流直播以及两者结合可切换的直播场景。\n\n下面将会就三种场景的的使用姿势进行说明。\n\n## 实现分析\n\n### 设置监听\n\n在进行 CDN 转推之前,需要设置 CDN 转推流的状态监听:\n\n \n \n // 设置监听\n virtual void SetLiveStreamingListener(QNLiveStreamingListener* listener) = 0;\n \n // 监听接口类\n class QNLiveStreamingListener\n {\n public:\n /**\n * 转推任务成功创建时触发此回调\n *\n * @param stream_id 转推成功的 stream id\n */\n virtual void OnStarted(const std::string& stream_id) = 0;\n \n /**\n * 转推任务成功停止时触发此回调\n *\n * @param stream_id 停止转推的 stream id\n */\n virtual void OnStopped(const std::string& stream_id) = 0;\n \n /**\n * 转推任务配置更新时触发此回调\n *\n * @param stream_id 配置更新的 stream id\n */\n virtual void OnTranscodingTracksUpdated(const std::string& stream_id) = 0;\n \n /**\n * 转推任务出错时触发此回调\n * @param stream_id 出现错误的 stream id\n * @param error_info 详细错误原因\n */\n virtual void OnError(const std::string& stream_id, const QNLiveStreamingErrorInfo& error_info) = 0;\n protected:\n virtual ~QNLiveStreamingListener() {}\n };\n \n\n其中,转推任务出错时的错误原因可参考\n[QNLiveStreamingErrorInfo](https://developer.qiniu.com/rtc/api/11271/QNLiveStreamingErrorInfo-\nLinux)\n\n在设置好监听后,便可以基于业务场景进行`单路转推任务`或者`合流转推任务`的创建了。\n\n### 单路流直播场景\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n场景示意图如下:\n\n\n\n注意:如果主播有两路视频流(采集+录屏)需要合流转推,请参考多路流合流直播场景实现\n\n单路流转推场景主要实现步骤如下:\n\n#### 创建单路转推任务\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/11268/QNDirectLiveStreamingConfig-\nLinux) 用于配置单路转推的相关信息,包括推流地址、参与 CDN 转推的音视频轨。\n\n创建转推任务的示例代码如下:\n\n \n \n qiniu::QNDirectLiveStreamingConfig config;\n // 设置 stream id,该 id 为合流任务的唯一标识符\n config.stream_id = _custom_forward_id;\n // 设置推流地址\n config.publish_url = \"rtmp://pili-publish.qnsdk.com/sdk-live/window-forward\";\n // 设置单路流中的视频轨,仅支持一路视频的设置,重复设置会被覆盖\n config.local_video_track = _camera_track_ptr;\n // 设置单路流中的音频轨,仅支持一路音频的设置,重复设置会被覆盖\n config.local_audio_track = _microphone_audio_track_ptr;\n // 开始进行单路转推\n client->StartLiveStreaming(config);\n \n\n单路转推任务创建成功后,会触发上述 `QNLiveStreamingListener.OnStarted`\n回调接口,回调该接口即代表成功开启了单路流转推,可以通过相应的播放链接拉取直播流进行观看。\n\n**注意:**\n\n 1. **QNDirectLiveStreamingConfig 仅支持配置一路视频轨和一路音频轨,重复设置会被覆盖**\n\n#### 停止单路转推任务\n\n可以通过如下方式实现单路转推任务的停止:\n\n \n \n client->StopLiveStreaming(config);\n \n\n单路转推任务停止成功后,会触发上述 `QNLiveStreamingListener.OnStopped` 回调接口。\n\n### 多路流合流直播场景\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n场景示意图如下:\n\n\n\n为了实现该场景,首先,需要了解下相关配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/api/11294/QNTranscodingLiveStreamingConfig-Linux) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/api/11296/QNTranscodingLiveStreamingTrack-Linux) 用于配置参与 CDN 合流的每一路媒体 track 在合流画布中的位置、大小等信息。\n * [QNTranscodingLiveStreamingImage:](https://developer.qiniu.com/rtc/api/11295/QNTranscodingLiveStreamingImage-Linux) 用于配置合流背景、水印配置参数。\n\n了解上述概念后,该场景的主要实现步骤如下:\n\n#### 开启合流直播\n\n##### 创建 QNTranscodingLiveStreamingConfig\n\n \n \n qiniu::QNTranscodingLiveStreamingConfig config;\n config.stream_id = unicode2utf(_room_name.GetBuffer()) + \"_merge\";; // 设置 stream id,该 id 为合流任务的唯一标识符\n config.publish_url = _merge_config.publish_url;; // 设置合流任务的推流地址\n config.width = _merge_config.job_width; // 设置合流画布的宽度\n config.height = _merge_config.job_height; // 设置合流画布的高度\n config.fps = _merge_config.job_fps; // 设置合流任务的视频帧率\n config.stretch_mode = _merge_config.job_stretch_mode; // 设置合流任务的默认画面填充方式\n config.bitrate = _merge_config.job_bitrate; // 设置合流任务的码率,单位: kbps\n config.merge_background = background; // 设置合流画布的背景图片,仅支持 HTTP\n config.merge_watermark.emplace_back(mark); // 设置合流任务的水印\n client->StartLiveStreaming(config); // 开始转推\n \n\n合流任务创建成功后,会触发上述 `QNLiveStreamingListener.OnStarted` 回调接口。可以在该回调接口中设置合流布局\n\n##### 设置合流布局\n\n合流任务创建成功之后,就可以基于用户发布的 track 进行合流布局的配置了。这里首先需要了解\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/11296/QNTranscodingLiveStreamingTrack-\nLinux) 的概念。操作示例代码如下:\n\n \n \n qiniu::QNTranscodingLiveStreamingTrack merge_opt;\n merge_opt.track_id = _camera_track_ptr->GetTrackID(); // 设置待合流 track id\n merge_opt.x = _merge_config.local_video_x; // 设置 track 画面在合流画面中位置的 x 轴坐标\n merge_opt.y = _merge_config.local_video_y; // 设置 track 画面在合流画面中位置的 y 轴坐标\n merge_opt.z = 1; // 设置 track 画面在合流画面中的 zOrder 层级\n merge_opt.width = _merge_config.local_video_width; // 设置 track 画面在合流画面中位置宽度\n merge_opt.height = _merge_config.local_video_height; // 设置 track 画面在合流画面中位置高度\n \n\n其中,远端用户的 track id 可以通过 SDK 提供的相关回调返回的\n[QNRemoteAudioTrack](https://developer.qiniu.com/rtc/api/11212/QNRemoteAudioTrack-\nLinux) 和\n[QNRemoteVideoTrack](https://developer.qiniu.com/rtc/api/11215/QNRemoteVideoTrack-\nLinux) 获取:\n\n \n \n class QNClientEventListener {\n public:\n // 当成功订阅远端 track 时会触发此回调\n virtual void OnSubscribed(const std::string& remote_user_id,const RemoteAudioTrackList& remote_audio_track_list,const RemoteVideoTrackList& remote_video_track_list) = 0;\n }\n \n\n通过上述代码创建\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/api/11296/QNTranscodingLiveStreamingTrack-\nLinux) 或者更新了已有的 track 布局配置后,就可以进行布局的配置了:\n\n \n \n /**\n * 添加合流的 track\n *\n * @param stream_id 合流任务 id\n * @param transcoding_track_list 增加的 track 合流配置信息\n */\n virtual void SetTranscodingLiveStreamingTracks(std::string& stream_id, QNTranscodeingTrackList& transcoding_track_list) = 0;\n \n\n当期望取消某路合流布局时,可以通过如下调用实现:\n\n \n \n /**\n * 删除合流中的 track\n *\n * @param stream_id 合流任务 id\n * @param transcoding_track_list 删除的 track\n */\n virtual void RemoveTranscodingLiveStreamingTracks(std::string& stream_id, QNTranscodeingTrackList& transcoding_track_list) = 0;\n \n\n#### 停止合流直播\n\n可以通过如下方式实现合流转推任务的停止:\n\n \n \n client->StopLiveStreaming(config);\n \n\n合流转推任务停止成功后,会触发上述 `QNLiveStreamingListener.OnStopped` 回调接口。\n\n### 单路流、多路流合流二者切换的场景\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们引入 `serialnum` 的概念以实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/api/11268/QNDirectLiveStreamingConfig-Linux) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/api/11294/QNTranscodingLiveStreamingConfig-Linux) 两种任务场景推流地址需要保持一致以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,值越大,优先级越高,便不会出现抢流的现象。也基于此,合流任务必须使用自定义合流任务,以便自定义推流地址。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,在收到合流转推任务的 `OnStarted` 回调之后,在回调中执行 `client->StopLiveStreaming(direct_config)` 来停止单路转推任务\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,在收到单路转推任务的 `OnStarted` 回调之后,在回调中执行 `_rtc_client_ptr->StopLiveStreaming(transcoding_config)` 来停止合流转推任务\n\n## 注意事项\n\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,值越大,优先级越高**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频视频大小流"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >视频大小流\n\n# 视频大小流\n\n最近更新时间: 2022-03-28 17:07:49\n\n本部分介绍视频大小流的使用方式。\n\n## 功能介绍\n\n\n\n当用户 A 开启大流时,会发送多个不同分辨率的视频码流到服务端;此时,不同的用户需要订阅 A\n的视频流时可以根据自己的需要或者服务端的策略来订阅到不同质量的视频流。\n\n## 开启大小流\n\n在创建摄像头 track 时,可以通过 track config 提供的 `multi_profile_enabled` 成员来启用大小流功能,以\nQNCameraVideoTrack 为例,其启用方式如下:\n\n \n \n QNCameraVideoTrackConfig video_track_config;\n video_track_config.id = camera_device_id;\n video_track_config.capture_config = {width, height, fps};\n video_track_config.encoder_config = {width, height, fps, bitrate};\n video_track_config.multi_profile_enabled = true; // 是否开启大小流\n QNCameraVideoTrack video_track = QNRTC::CreateCameraVideoTrack(video_track_config);\n \n\n开启大小流功能后,发送端可以通过获取统计信息的接口\n[QNRTCClient.GetLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetLocalVideoTrackStats) 来感知发送情况。\n\n## 订阅大小流\n\n订阅端可以通过\n[QNRemoteVideoTrack.IsMultiProfileEnabled](https://developer.qiniu.com/rtc/api/11215/QNRemoteVideoTrack-\nLinux#IsMultiProfileEnabled) 接口判断远端用户是否发布大小流。若接口返回 true,则可通过\n[QNRemoteVideoTrack.SetProfile](https://developer.qiniu.com/rtc/api/11215/QNRemoteVideoTrack-\nLinux#SetProfile) 来订阅指定的 QNTrackProfile。\n\n示例代码如下:\n\n \n \n if (remote_video_track.IsMultiProfileEnabled()) {\n remote_video_track.SetProfile(qiniu::QNTrackProfile::kMedium);\n }\n \n\n> **注意:SetProfile 接口仅是设置预期的流等级,并不代表实际的订阅等级,若实际发送端还未发送指定等级的流,则将无法订阅到指定的\n> profile**\n\n当订阅指定 profile 生效后,将通过回调\n[QNTrackInfoChangedListener.OnVideoProfileChanged](https://developer.qiniu.com/rtc/api/11223/QNTrackInfoChangedListener-\nLinux#OnVideoProfileChanged) 告知。\n\n## 注意事项\n\n * **开启大小流功能设置编码宽高最低为 1280 x 720**\n * **目前仅支持在发送端发布单路 camera 视频 track 的场景下,使用大小流功能**\n * **对于开启大小流的用户,建议保证有良好的网络环境,保证多流发送质量**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频通话质量统计"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >通话质量统计\n\n# 通话质量统计\n\n最近更新时间: 2022-03-28 17:21:13\n\n本文主要介绍 SDK 如何对通话过程中的网络以及音视频的质量进行监控。\n\n> 获取通话中的质量监测信息前,请确保您已经**加入了房间** 并且**已经发布或订阅了相关的音视频 Track** 。\n\n# 音频质量统计\n\n## 获取本地音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetLocalAudioTrackStats) 接口获取当前本地的音频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalAudioTrackStats](https://developer.qiniu.com/rtc/api/11273/QNLocalAudioTrackStats-\nLinux) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nuplink_bitrate| 本地音频上行的码率,单位 bps \nuplink_rtt| 本地音频上行的网络延时,单位 ms \nuplink_lostrate| 本地音频上行的丢包率,范围 [0, 100] \n \n## 获取远端音频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetRemoteAudioTrackStats) 接口获取当前远端的音频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteAudioTrackStats](https://developer.qiniu.com/rtc/api/11285/QNRemoteAudioTrackStats-\nLinux) 主要包含如下信息:\n\n属性| 描述 \n---|--- \ndownlink_bitrate| 本地拉取远端音频时下行的码率,单位 bps \ndownlink_lostrate| 本地拉取远端音频时下行的丢包率,范围 [0, 100] \nuplink_rtt| 远端音频上行的网络延时,单位 ms \nuplink_lostrate| 远端音频上行的丢包率,范围 [0, 100] \n \n# 视频质量统计\n\n## 获取本地视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetLocalVideoTrackStats) 接口获取当前本地的视频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNLocalVideoTrackStats](https://developer.qiniu.com/rtc/api/11274/QNLocalVideoTrackStats-\nLinux) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前所统计视频的[质量等级](https://developer.qiniu.com/rtc/api/11293/QNTrackProfile-\nLinux),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/11370/multi-\nstream-linux)文档 \nuplink_framerate| 本地视频上行的帧率,单位 fps \nuplink_bitrate| 本地视频上行的码率,单位 bps \nuplink_rtt| 本地视频上行的网络延时,单位 ms \nuplink_lostrate| 本地视频上行的丢包率,范围 [0, 100] \n \n## 获取远端视频质量统计\n\nSDK 质量统计接口均为**主动调用接口** ,您可以在适当的时机通过调用\n[QNRTCClient::GetRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/11288/QNRTCClient-\nLinux#GetRemoteVideoTrackStats) 接口获取当前远端的视频质量统计信息,并通过 trackID\n来获取对应轨道的质量统计。获取到的质量统计内容\n[QNRemoteVideoTrackStats](https://developer.qiniu.com/rtc/api/11286/QNRemoteVideoTrackStats-\nLinux) 主要包含如下信息:\n\n属性| 描述 \n---|--- \nprofile|\n当前订阅的视频的[质量等级](https://developer.qiniu.com/rtc/api/11293/QNTrackProfile-\nLinux),profile\n说明亦可参考[视频大小流](https://developer.qiniu.com/rtc/development_guidelines/11370/multi-\nstream-linux)文档 \ndownlink_framerate| 本地拉取远端视频时下行的帧率,单位 fps \ndownlink_bitrate| 本地拉取远端视频时下行的码率,单位 bps \ndownlink_lostrate| 本地拉取远端视频时下行的丢包率,范围 [0, 100] \nuplink_rtt| 远端视频上行的网络延时,单位 ms \nuplink_lostrate| 远端视频上行的丢包率,范围 [0, 100] \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Linux >错误码\n\n# 错误码\n\n最近更新时间: 2022-03-28 16:57:03\n\n本文主要介绍 QNRTC SDK 各端相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nQNRTC_OK| 0| 无错误| 无 \nErr_Token_Error| 10001| 房间 Token 错误| 表示您提供的房间 token 不符合七牛 token 签算规则,详情请参考\n[RoomToken 签发服务](https://doc.qnsdk.com/rtn/docs/server_overview#1) \nErr_Token_Expired| 10002| 房间 Token 过期| 表示您的房间 token 过期,需要重新生成 token 再加入 \nErr_User_Already_Exist| 10022| 房间内已经有同名用户|\n后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nErr_Media_Not_Support| 10054| 媒体协商失败| 表示该设备不支持指定的音视频格式,无法进行连麦的操作 \nErr_Auth_Failed| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 token 验证失败,建议检查签算\ntoken 的信息是否异常,若 token 无误,可重新尝试加入房间 \nErr_Reconnect_Failed| 21003| 30s 内未能重连成功或者重连时房间已被销毁| 建议检查网络并重新申请 token\n加入房间。当发生该错误时,之前创建的转推任务将被服务销毁,如有需要,应在下次成功加入房间后按业务需要恢复 \nErr_Fatal| 21005| 非预期错误| 表示 RTC 生命周期异常,需要释放资源并重新初始化 \n \n> **SDK 重连机制:**\n>\n> * SDK 内部会尝试无限重连\n> * 如果 30s 内无法完成有效的重连过程,则超时后的重连请求在到达 RTC 服务后会抛出 `Err_Reconnect_Failed` 错误\n>\n\n# 设备采集相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nErr_Mic_Init_Failed| 23006| 系统麦克风初始化错误,无权限或者麦克风被占用| 请确认应用是否获取音频录制的权限或者麦克风是否被占用 \nErr_Mic_Capture_Failed| 23007| 麦克风录制失败| 可尝试取消发布并重新发布麦克风 Track \nErr_Speaker_Init_failed| 23008| 扬声器无权限或者被占用| 请确认应用是否获取音频播放的权限或者扬声器被占用 \n \n# 发布 Track 相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nErr_Invalid_Parameter| 10053| 非法参数| 请检查待发布 Track 是否为本地 Track,并且不为空 \nErr_Invalid_State| 21002| 非法状态| 请检查是否已经加入房间 \nErr_Fatal| 21005| 非预期错误| RTC 生命周期异常,需要释放资源并重新初始化 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nErr_No_Permission| 10051| 无操作权限| 请检查用户的 token 签算权限 \nErr_Invalid_Parameter| 10053| 参数错误| 请检查操作的参数是否合法 \nErr_Invalid_State| 21002| 状态异常| 请检查房间状态,加入房间后才可以创建转推任务 \nErr_Network_Timeout| 21004| 操作超时| 请重新尝试操作 \nErr_Fatal| 21005| 服务端错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \n \n# 跨房媒体转发相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nErr_Relay_Token_Invalid| 24000| Token 验证失败| 请确认 Token 签算是否正确 \nErr_Relay_Already_Start| 24001| 已开启跨房| 请勿重复操作 \nErr_Relay_Not_Start| 24002| 跨房没有开启| 请先开启跨房再进行操作 \nErr_Relay_Destination_Room_Not_Existed| 24003| 目标房间不存在| 请确认跨房的目标房间是否存在 \nErr_Relay_Player_In_Dest_Room| 24004| 用户不在目标房间内| 请确认用户是否在目标房间内 \nErr_Relay_Start_Failed| 24004| 跨房开启失败| 请确认跨房参数是否正确 \nErr_Invalid_Client_Mode| 24006| 使用场景不符| 请切换到互动直播场景 \nErr_Invalid_Client_Role| 24007| 用户角色不符| 请根据当前场景切换到指定角色再进行操作 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >初始化\n\n# 初始化\n\n最近更新时间: 2022-02-28 15:35:22\n\n本部分介绍了实时音视频的初始化方式及其配置项。\n\n在加入房间前,SDK 提供了一系列的方法用来进行初始化配置。在配置完成后通过 `QNRTC.createClient` 创建 **QNRTCClient**\n对象 即可。\n\n# 设置日志等级\n\n通过调用\n[QNRTC.setLogLevel](https://developer.qiniu.com/rtc/10958/WXAppQNRTC#setLogLevel)\n设置 SDK 的日志等级。默认等级为 `VERBOSE`。\n\n例如,下面代码会关闭 SDK 的日志输出:\n\n \n \n import QNRTC, { QNLogLevel } from \"qnwxapp-rtc\";\n \n QNRTC.setLogLevel(QNLogLevel.NONE);\n \n\n# 创建房间客户端对象\n\n当完成所需配置后,就可以通过\n[QNRTC.createClient](https://developer.qiniu.com/rtc/10958/WXAppQNRTC#createClient)\n来创建房间客户端对象\n[QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient)。后续的关于房间、发布订阅的逻辑均通过该对象来操作。\n\n \n \n import QNRTC from \"qnwxapp-rtc\";\n \n const mClient = QNRTC.createClient();\n \n\n> 注意,同一个页面,该方法仅允许执行一次。即 **QNRTCClient** 对象应当只创建一个,当作单例对象使用。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >房间管理\n\n# 房间管理\n\n最近更新时间: 2022-02-28 15:56:09\n\n本部分介绍如何进行房间管理,获取房间信息以及用户信息等常见功能。\n\n# 监听房间连接状态\n\nSDK 内部维护了当前客户端与房间之间的连接状态,建议在加入房间之前,先对连接状态进行监听,根据当前状态处理相关逻辑。\n\n \n \n client.on(\"connection-state-changed\", (connectionState) => {\n console.log(\"connection-state-changed\", connectionState);\n });\n \n\n其中\n[connectionState](https://developer.qiniu.com/rtc/10955/WXAppQNConnectionState)\n表示当前所处状态,每个状态均与相应行为操作相关,例如:\n\n * 初始情况下,状态为 `DISCONNECTED`\n * 与房间建立连接过程中,状态变为 `CONNECTING`\n * 与房间连接成功后,状态变为 `CONNECTED`\n * 与房间断开连接后,状态再次变为 `DISCONNECTED`\n\n# 加入房间\n\n在创建房间对象 [QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient)\n完成之后,可以调用 [join](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#join)\n方法来加入房间。\n\n \n \n const roomToken = \"...\";\n await client.join(roomToken);\n \n\n> 关于 roomToken 在服务端的生成可查阅 [RoomToken\n> 的签算](https://developer.qiniu.com/rtc/8802/pd-overview)。\n\n当本地加入房间,其他正在房间中的远端用户可以通过监听 [user-\njoined](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_JOINED)\n事件获取该信息。\n\n \n \n Client.on(\"user-joined\", (user) => {\n console.log(\"user-joined\", user);\n });\n \n\n# 离开房间\n\n本地调用 [leave](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#leave)\n方法,可以退出房间。\n\n \n \n await client.leave();\n \n\n本地退出房间,正在房间中的远端用户可以通过监听 [user-\nleft](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_LEFT)\n事件获取该信息。\n\n \n \n client.on(\"user-left\", (user) => {\n console.log(\"user-left\", user);\n });\n \n\n# 异常退出房间\n\n在网络发生异常等情况下,如果 SDK 与服务端的连接断开,SDK\n内部会尝试主动重连。如果重连成功,[connectionState](https://developer.qiniu.com/rtc/10955/WXAppQNConnectionState)\n的状态会变为 `RECONNECTED`。\n\n但是,如果经过多种重连逻辑均无法恢复正常连接时,SDK 会主动退出房间,房间连接状态变为 `DISCONNECTED`。\n\n此时的事件回调中可以获取到第二个参数\n[info](https://developer.qiniu.com/rtc/10943/WXAppQNConnectionDisconnectedInfo)\n对象,该对象中包含了异常退出房间的信息。\n\n \n \n import { QNConnectionState, QNConnectionDisconnectedReason } from \"qnweb-rtc\";\n \n client.on(\"connection-state-changed\", function (connectionState, info) {\n if (\n connectionState === QNConnectionState.DISCONNECTED &&\n info.reason === QNConnectionDisconnectedReason.ERROR\n ) {\n console.warning(\"网络异常,请检查网络后重试\");\n }\n });\n \n\n此时建议提示用户网络异常,请用户检查网络后重试。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频发布和订阅"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >发布和订阅\n\n# 发布和订阅\n\n最近更新时间: 2022-08-08 16:48:11\n\n本部分介绍能够实现向房间发布媒体流与订阅媒体流等操作。\n\n# 发布本地 Track\n\n与其他 `SDK` 不同,小程序只需要在 `live-pusher` 组件中提供推流地址,当推流成功后,`SDK` 即可获得所发布的本地音视频\n**Track** 。所以首先需要获取推流地址:\n\n \n \n import { QNPublishStatus } from \"pili-rtc-wxapp\"\n client.publish((status, data) => {\n if(status === QNPublishStatus.READY) {\n this.setData({\n publishPath: data.url\n })\n }\n })\n \n\n其中 `publish` 的回调状态有三种:\n\n * `READY` 该状态中可以获取对应的推流地址\n * `COMPLETED` 当推流成功后,该状态可以获取推流所发布的音视频 **Track**\n * `ERROR` 该状态表示推流失败\n\n当获取到推流地址后,传入 `live-pusher` 组件:\n\n \n \n <!-- index.wxml -->\n <live-pusher\n autopush\n mode=\"RTC\"\n url=\"{{publishPath}}\"\n >\n </live-pusher>\n \n\n当推流成功后,`publish` 回调收到 `COMPLETED` 状态,同时返回所发布的 **Track** ,完整代码如下:\n\n \n \n import { QNPublishStatus } from \"pili-rtc-wxapp\"\n client.publish((status, data) => {\n if(status === QNPublishStatus.READY) {\n this.setData({\n publishPath: data.url\n })\n }else if(status === QNPublishStatus.COMPLETED) {\n this.setData({\n localTracks: data.tracks\n })\n }else if(status === QNPublishStatus.ERROR) {\n console.log(\"发布失败\")\n }\n })\n \n\n`live-pusher` 设置 autopush 时,填入对应推流地址即会自动推流,如果需要监听是否推流成功,可以使用小程序所提供的事件函数\n`bindstatechange` ,根据\n[官网](https://developers.weixin.qq.com/miniprogram/dev/component/live-\npusher.html) 所提供的 `code` 码判断状态:\n\n \n \n <!-- index.wxml -->\n <live-pusher\n autopush\n mode=\"RTC\"\n url=\"{{publishPath}}\"\n bindstatechange=\"handleStateChange\"\n >\n </live-pusher>\n \n \n \n Page({\n handleStateChange(e) {\n console.log('live-pusher code:', e.detail.code)\n }\n })\n \n\n> `live-pusher` 除了 autopush,还支持对应 API 操作推流与否,详情可见\n> [官方文档](https://developers.weixin.qq.com/miniprogram/dev/api/media/live/LivePusherContext.html)\n> 。\n\n当推流成功后,远端用户在监听 [user-\npublished](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_PUBLISHED)\n后会收到如下事件通知:\n\n \n \n client.on('user-published', (userID, track) => {\n console.log('user-published', userID, track)\n });\n \n\n# 取消发布本地 Track\n\n发布成功后,只有当离开房间才表示取消发布本地 **Track** 。\n\n取消发布成功后,远端用户在监听 [user-\nunpublished](https://developer.qiniu.com/rtc/9090/WXAppQNRTCClient#USER_UNPUBLISHED)\n后会收到如下事件通知:\n\n \n \n client.on('user-unpublished', (userID, track) => {\n console.log('user-unpublished', userID, track);\n });\n \n\n> 有一个例外,当调用 `wx.createLivePusherContext().stop()` ,再调用\n> `wx.createLivePusherContext().start()` 后,远端用户亦会监听到 `user-unpublished`\n> 事件触发,紧随着监听到 `user-published` 事件。\n\n# 订阅远端 Track\n\n当收到远端用户发布的信息后,可以调用\n[subscribe](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#subscribe)\n方法订阅该 **Track** 。\n\n \n \n client.on('user-published', async (userID, tracks) => {\n const url = await client.subscribe({\n videoTrack: tracks.find(track => track.isVideo()),\n audioTrack: tracks.find(track => track.isAudio())\n })\n this.setData({\n subscribeList: [...this.data.subscribeList, url]\n })\n });\n \n\n订阅成功后,返回对应 **QNRemoteTrack** 所生成的拉流地址,然后在 `live-player` 组件中设置对应的拉流地址即可:\n\n \n \n <!-- index.wxml -->\n <live-player\n autoplay\n wx:for=\"{{subscribeList}}\"\n src=\"{{item}}\"\n mode=\"RTC\"\n >\n </live-player>\n \n\n需要注意的是,`subscribe` 方法所传入的音视频 **QNRemoteTrack** 必须为同一个用户所发布的。另外,如果小程序与其他\n`七牛音视频SDK` 进行通讯时,一个用户可能不单单只发布一个音频 **Track** 和一个视频 **Track** ,很有可能有多个\n**Tracks** ,这时需要使用者根据 **QNRemoteTrack** 的 `tag` 属性来判断应该订阅哪一个 **QNRemoteTrack**\n。\n\n> 在 `小程序SDK` 中,发布的 **Track** 的 `tag` 值默认为 `debug`,在其他 `SDK` 中可以根据使用者需要进行自定义。\n\n# 取消订阅远端 Track\n\n在小程序中,关闭 `live-player` 即表示取消订阅 `live-player` 中拉流地址所对应的 `Track`。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频CDN 转推"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >CDN 转推\n\n# CDN 转推\n\n最近更新时间: 2022-03-01 10:39:27\n\n本部分介绍了 CDN 转推的使用姿势及其应用场景。\n\n# 应用场景\n\nCDN 转推可实现直播场景的功能,实时音视频场景下的直播主要包括三个部分:单路流直播、多路流合流直播以及两者结合可切换的直播场景。\n\n下面将会就三种场景的的使用姿势进行说明。\n\n# 实现分析\n\n### 单路流直播场景\n\n单路流直播的场景,顾名思义,就是将一条音视频流直接转推到直播服务器,主要适用于`不包含连麦的秀场直播`、`连麦中需要将某一路流单独转推落存储`等场景。\n\n单路流转推场景主要实现步骤如下:\n\n#### 创建单路转推任务\n\n调用\n[startDirectLiveStreaming](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#startDirectLiveStreaming)\n来创建单路转推任务。\n\n[QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/10945/WXAppQNDirectLiveStreamingConfig)\n用于配置单路转推的相关信息,包括推流地址、参与 CDN 转推的音视频轨。\n\n创建转推任务的示例代码如下:\n\n \n \n const directLiveStreamingConfig = {\n videoTrack: videoTrack, // 设置单路流中的本地视频轨,仅支持一路视频的设置,重复设置会被覆盖\n audioTrack: audioTrack, // 设置单路流中的本地音频轨,仅支持一路音频的设置,重复设置会被覆盖\n streamID: \"room1\", // 设置 stream id,该 id 为该单路转推任务的唯一标识符\n url: 'rtmp://...' // 设置推流地址\n }\n // 开始进行单路转推\n client.startDirectLiveStreaming(directLiveStreamingConfig).then(() => {\n console.log(\"转推成功\")\n }).catch(e => {\n console.log(\"转推失败\", e)\n })\n \n\n> QNDirectLiveStreamingConfig 仅支持配置一路视频轨和一路音频轨,重复设置会被覆盖。\n\n#### 停止单路转推任务\n\n可以通过如下方式实现单路转推任务的停止:\n\n \n \n await client.stopDirectLiveStreaming(streamID);\n \n\n### 多路流合流直播场景\n\n多路流合流直播场景,主要适用于`连麦互动直播`、`PK\n直播`以及`单主播需要两路以上视频合流转推`等场景。简单来说,就是对连麦各方的视频画面进行合流,然后转推。这种场景相较于纯直播场景的单路流转推会复杂一些。\n\n为了实现该场景,首先,需要了解下相关配置类及其作用:\n\n * [QNTranscodingLiveStreamingConfig:](https://developer.qiniu.com/rtc/10959/WXAppQNTranscodingLiveStreamingConfig) 用于配置合流的基本参数,包括任务 id、推流地址、合流的宽高、码率等信息。\n * [QNTranscodingLiveStreamingTrack:](https://developer.qiniu.com/rtc/10961/WXAppQNTranscodingLiveStreamingTrack) 用于配置参与 CDN 合流的每一路媒体 track 在合流画布中的位置、大小等信息。\n\n了解上述概念后,该场景的主要实现步骤如下:\n\n#### 开启合流直播\n\n#### 创建 QNTranscodingLiveStreamingConfig\n\n \n \n const backgroundTranscodingLiveStreamingImage = {\n x: 0,\n y: 0,\n width: 600,\n height: 480,\n url: \"background url\"\n }\n const watermarksTranscodingLiveStreamingImages = [{\n x: 0,\n y: 0,\n width: 100,\n height: 100,\n url: \"watermark url\"\n }]\n const transcodingLiveStreamingConfig = {\n streamID: \"mstreamid-1\", // 设置 stream id,该 id 为合流任务的唯一标识符\n url: \"rtmp://...\", // 设置合流任务的推流地址\n width: 600, // 设置合流画布的宽度\n height: 480, // 设置合流画布的高度\n videoFrameRate: 20, // 设置合流任务的视频帧率\n bitrate: 1000, // 设置合流任务的码率,单位: kbps\n renderMode: QNRenderMode.ASPECT_FILL, // 设置合流任务的默认画面填充方式\n background: backgroundTranscodingLiveStreamingImage, // 设置合流画布背景图片的x轴y轴宽高和url信息,图片仅支持 HTTP\n watermarks: watermarksTranscodingLiveStreamingImages // 设置合流合流任务的水印的x轴y轴宽高和url信息\n }\n await client.startTranscodingLiveStreaming(transcodingLiveStreamingConfig); // 开始转推\n \n\n##### 设置合流布局\n\n合流任务创建成功之后,就可以基于用户发布的 track 进行合流布局的配置了。这里首先需要了解\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/10961/WXAppQNTranscodingLiveStreamingTrack))\n的概念。操作示例代码如下:\n\n \n \n const transcodingLiveStreamingTracks = [{\n trackID: \"xxx\", // 设置待合流 track id\n x: 220, // 设置 track 画面在合流画面中位置的 x 轴坐标\n y: 220, // 设置 track 画面在合流画面中位置的 y 轴坐标\n width: 200, // 设置 track 画面在合流画面中位置宽度\n height: 200 // 设置 track 画面在合流画面中位置高度\n zOrder: 100, // 设置 track 画面在合流画面中的 zOrder 层级\n renderMode: QNRenderMode.ASPECT_FILL, // track 画面合流时的填充方式\n }]\n \n\n通过上述代码创建\n[QNTranscodingLiveStreamingTrack](https://developer.qiniu.com/rtc/10961/WXAppQNTranscodingLiveStreamingTrack)\n,就可以进行布局的配置了:\n\n \n \n await client.setTranscodingLiveStreamingTracks(\"mstreamid-1\", transcodingLiveStreamingTracks);\n \n\n当期望取消某路合流布局时,可以通过如下调用实现:\n\n \n \n await client.removeTranscodingLiveStreamingTracks(\"mstreamid-1\", transcodingLiveStreamingTracks);\n \n\n#### 停止合流直播\n\n可以通过如下方式实现合流转推任务的停止:\n\n \n \n try{\n await client.stopTranscodingLiveStreaming(streamID)\n console.log(\"停止合流成功\")\n }catch(e) {\n console.log(\"停止合流失败\", e)\n }\n \n\n### 单路流、多路流合流二者切换的场景\n\n单路流、多路流合流二者切换的场景,主要适用于`有连麦需求的秀场直播`等场景,能够满足主播在自己单路流直播和连麦两路流合流直播二者间切换的需求。对于该场景的实现,需要注意的问题是,在两种场景切换的过程中,如何保证观看端不会断流黑屏。\n\n为了避免切换过程中断流黑屏的问题,这里我们引入 `serialnum` 的概念以实现两路流的平滑切换:\n\n * [QNDirectLiveStreamingConfig](https://developer.qiniu.com/rtc/10945/WXAppQNDirectLiveStreamingConfig) 和 [QNTranscodingLiveStreamingConfig](https://developer.qiniu.com/rtc/10959/WXAppQNTranscodingLiveStreamingConfig) 两种任务场景推流地址需要保持一致以避免播放端需要实现多余的切流操作\n * 由于上述完全一致的地址可能会导致抢流的现象出现,所以需要在推流地址后面加上 `serialnum` 的参数,如 \"rtmp://domain/app/streamName?serialnum=xxx\",其中,serialnum 决定流的优先级,值越大,优先级越高,便不会出现抢流的现象。\n\n综上,单路流、合流切换场景的实现步骤如下:\n\n 1. 创建单路流转推任务,同时进行单路流直播。\n 2. 需要从单路转推任务切换到合流转推任务时,`创建自定义合流任务`,注意要使用自定义合流任务指定带有 `serialnum` 参数的推流地址,合流成功后后执行 `client.stopDirectLiveStreaming(streamID)` 来停止单路转推任务。\n 3. 需要从合流转推任务切换到单路转推任务时,创建单路转推任务,其推流地址需要带有 `serialnum` 参数,转推成功后执行 `client.stopTranscodingLiveStreaming(streamID)` 来停止合流转推任务。\n\n通过上述方式,即可实现单路流直播、多路流合流直播之间的切换。\n\n# 注意事项\n\n * **如果场景涉及到单路流直播、多路流合流直播之间的切换,那么合流任务务必使用自定义合流任务以指定带有`serialnum` 的推流地址。其中,serialnum 决定流的优先级,值越大,优先级越高。**\n * **单路流直播场景,一路流仅支持一路音频轨和一路视频轨的设置,重复设置会被覆盖。**\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频错误码"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >错误码\n\n# 错误码\n\n最近更新时间: 2022-03-01 10:40:38\n\n本文主要介绍 QNRTC SDK 各端相关的错误码及其建议的处理方式。\n\n> 若返回的错误码本文未提及,请[提交工单](https://support.qiniu.com/tickets/new)或者联系七牛技术支持同学协助解决\n\n# 房间相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nSUCCESS| 0| 无错误| 无 \nJOIN_ROOM_ERROR| 10001| 房间 Token 错误| 表示您提供的房间 token 不符合七牛 token 签算规则,详情请参考\n[RoomToken 签发服务](https://doc.qnsdk.com/rtn/docs/server_overview#1) \nJOIN_ROOM_ERROR| 10002| 房间 Token 过期| 表示您的房间 token 过期,需要重新生成 token 再加入 \nJOIN_ROOM_ERROR| 10022| 房间内已经有同名用户| 后台如果配置为开启“禁止自动踢人”,则同一用户重复加入/未正常退出再加入会触发此错误 \nERROR_AUTH_FAILED| 21001| 加入房间认证失败| 服务验证时出错,可能为服务网络异常,也可能是 token 验证失败,建议检查签算\ntoken 的信息是否异常,若 token 无误,可重新尝试加入房间 \nERROR_FATAL| 21005| 非预期错误| 需要检查接口调用、设备状态、网络状态等是否正常 \n \n# CDN 转推相关错误码\n\n枚举值| 错误码| 说明| 处理方式 \n---|---|---|--- \nERROR_INVALID_PARAMETER| 10053| 参数错误| 请检查操作的参数是否合法 \nERROR_FATAL| 21005| 非预期错误| 请重新尝试操作或者联系七牛技术支持同学协助定位 \n \n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频迁移指南"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > WXApp >迁移指南\n\n# 迁移指南\n\n最近更新时间: 2022-02-28 15:36:51\n\nQNRTC WXApp SDK 4.x 是一个全量重构版本,简化了接口调用逻辑,提高了接口的易用性,提供了更友好的事件监听机制。\n\n# 概览\n\n在 4.x 版本 SDK 中,我们提供了 [QNRTC](https://developer.qiniu.com/rtc/10958/WXAppQNRTC)\n和 [QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient)\n两个类来管理房间和音视频流的采集、发布、订阅等操作。\n\n * [QNRTC](https://developer.qiniu.com/rtc/10958/WXAppQNRTC) 主要负责处理 SDK 全局配置等。\n * [QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient) 主要负责处理房间的加入、离开,音视频轨的发布、订阅等房间交互相关的操作。\n\n上述管理方式的改动将影响到 SDK 的主要交互流程,若您需要升级,可以参考 [RTC 4.x\n使用指南](https://developer.qiniu.com/rtc/11146/user-guidance-wxapp) 的使用姿势分模块进行更新。\n\n# Track 的定义及使用方式\n\n在 4.x 版本 SDK 中,我们新增了音视频 **Track** 类,并对本地 **Track** 和远端 **Track**\n做了区分,继承结构定义如下:\n\n * [QNTrack](https://developer.qiniu.com/rtc/10944/WXAppQNTrack)\n * [QNLocalTrack](https://developer.qiniu.com/rtc/10942/WXAppQNLocalTrack)\n * [QNRemoteTrack](https://developer.qiniu.com/rtc/10948/WXAppQNRemoteTrack)\n\nv4.x 版本除了新增音视频 **Track** 类,还将本地静音 **Track** 以及监听远端 **Track** 静音状态等逻辑添加到\n**Track** 类上。\n\n对从本地采集的角度来说,通过\n[QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient) 上\n[publish](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#publish)\n方法的回调函数,获取本地采集的 **Track** :\n\n对订阅远端的媒体流来来说,当远端发布时,本地可以通过监听\n[QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient) 上的\n`user-published` 事件来获取远端媒体流\n[QNRemoteTrack](https://developer.qiniu.com/rtc/10948/WXAppQNRemoteTrack) 对象。\n\n# 房间管理\n\n在 4.x 版本中,创建房间对象需要调用 [QNRTC](https://developer.qiniu.com/rtc/10958/WXAppQNRTC)\n类的静态方法 `createClient` 来创建\n[QNRTCClient](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient)\n房间对象。下面来看如下使用该对象来管理房间:\n\n 1. 首先是加入和离开房间。可以通过 [join](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#join) 和 [leave](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#leave) 方法来加入/离开房间,可以通过监听 [user-joined](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_JOINED) 和 [user-left](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_LEFT) 事件来判断远端用户是否加入/离开房间。\n 2. 然后是发布 **Track** 。使用 [publish](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#publish) 方法进行发布 **Track** ,通过监听 [user-published](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_PUBLISHED) 和 [user-unpublished](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#USER_UNPUBLISHED) 事件获取远端用户的发布/取消发布信息。\n 3. 最后是订阅远端 **Track** 。使用 [subscribe](https://developer.qiniu.com/rtc/10950/WXAppQNRTCClient#subscribe) 方法进行订阅远端用户所发布的 **Track** 。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频初始化"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Uniapp >初始化\n\n# 初始化\n\n最近更新时间: 2023-12-18 15:11:49\n\n本部分介绍了实时音视频的初始化方式及其配置项。\n\n> 在加入房间前,需要使用 SDK 提供的\n> [configRTC](https://developer.qiniu.com/rtc/11415/UniappQNRTC#configRTC)\n> 用来进行初始化配置。\n\n#默认配置初始化\n\n直接使用\n[QNRTC.configRTC](https://developer.qiniu.com/rtc/11415/UniappQNRTC#configRTC)\n默认配置进行初始化,示例代码如下:\n\n \n \n QNRTC.init()\n // 老版本 QNRTC.configRTC() 已废弃\n \n\n若 默认配置无法满足您的场景需要,您可通过传入\n[QNRTCConfiguration](https://developer.qiniu.com/rtc/11385/UniappQNRTCConfiguration)\n对象进行自定义初始化配置。\n\n#设置媒体传输方式\n\n通过 policy 参数设置媒体传输方式,默认使用 UDP 传输。\n\n \n \n QNRTC.configRTC({\n policy: QNRTCPolicy.forceTCP\n })\n \n\n其中,媒体传输方式有如下几种,可根据实际情况自行选择:\n\n \n \n enum QNRTCPolicy {\n forceTCP = \"forceTCP\", // 强制 tcp\n forceUDP = \"forceUDP\", // 强制 udp\n preferUDP = \"preferUDP\" // 优先 UDP,不通的话自动改为 TCP\n }\n \n\n#设置日志等级\n\n通过 logLevel 参数设置 SDK 的日志等级。\n\n \n \n QNRTC.configRTC({\n logLevel: QNRTCLogLevel.error\n })\n \n\n> 由于 uniapp 兼容 iOS 与 Android,除了上述两种自定义配置项,sdk 还提供了专属于 iOS 与 Android\n> 的配置项,具体完整配置可参考\n> [QNRTCConfiguration](https://developer.qiniu.com/rtc/11385/UniappQNRTCConfiguration)。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频音视频采集"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Uniapp >音视频采集\n\n# 音视频采集\n\n最近更新时间: 2023-12-18 15:12:05\n\n本部分介绍音视频 [Track](https://developer.qiniu.com/rtc/11390/UniappQNTrack)\n的创建及采集等功能的使用。\n\n> * 一路 Track 代表一路音频或者视频的数据\n> * SDK 支持创建并发布多路视频 Track,但是仅支持同时创建一路音频 Track,重复创建将会失败\n>\n\n# 摄像头视频 Track\n\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack)\n为摄像头采集的本地 track,其创建方式如下:\n\n \n \n QNRTC.createCameraVideoTrack({\n bitrate: 800,\n height: 480,\n width: 640\n })\n \n\n其中可以传入\n[QNCameraVideoTrackConfig](https://developer.qiniu.com/rtc/11394/UniappQNCameraVideoTrackConfig)\n对象修改默认配置。\n\n在创建好\n[QNCameraVideoTrack](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack)\n之后,就可以通过调用 SDK 提供的相关方法进行摄像头的相关操作:\n\n### 开始/停止摄像头采集\n\n通过调用\n[QNCameraVideoTrack.startCapture](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#startCapture)\n接口进行摄像头采集,通过调用\n[QNCameraVideoTrack.stopCapture](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#stopCapture)\n接口停止摄像头采集。\n\n \n \n const cameraVideoTrack = QNRTC.createCameraVideoTrack()\n cameraVideoTrack.startCapture()\n cameraVideoTrack.stopCapture()\n \n\n> 创建 **Track** 后, sdk 会自动采集,由于 **Android** 和 **iOS**\n> 中的相机资源是单例的,若应用占用了相机资源则会导致其他应用无法获取到相机资源,SDK 支持在通话过程中可以通过\n> [QNCameraVideoTrack.startCapture](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#startCapture)\n> 获取相机资源,通过\n> [QNCameraVideoTrack.stopCapture](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#stopCapture)\n> 释放相机资源。\n\n### 预览窗口\n\n通过在 nvue 中添加原生组件,即可在试图中预览摄像头采集的窗口\n\n \n \n <QNRTC-UniPlugin-SurfaceView :local=\"0\" :identifyID=\"cameraVideoTrack.identifyID\" :trackID=\"cameraVideoTrack.trackID\"></QNRTC-UniPlugin-SurfaceView>\n \n\n * local: 0 本地 track 视图,1 远端 track 视图\n * identifyID: uniapp 中每个 track 的唯一标识符\n * trackID: 服务器对于每个 track 的唯一标识符(track 未发布时该值为\"\")\n\n### 开启/关闭闪光灯\n\n通过调用\n[QNCameraVideoTrack.turnLightOn](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#turnLightOn)\n接口开启闪光灯,通过调用\n[QNCameraVideoTrack.turnLightOff](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#turnLightOff)\n接口关闭闪光灯:\n\n \n \n cameraVideoTrack.turnLightOn()\n cameraVideoTrack.turnLightOff()\n \n\n### 切换摄像头\n\n通过调用\n[QNCameraVideoTrack.switchCamera](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#switchCamera)\n接口进行摄像头的切换。\n\n \n \n cameraVideoTrack.switchCamera()\n \n\n### 设置缩放\n\n通过调用\n[QNCameraVideoTrack.setZoom](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#setZoom)\n接口对相机采集的画面进行缩放。需要注意的是 setZoom 里的参数必须是通过调用\n[QNCameraVideoTrack.getZoom](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#getZooms)\n接口获取到的列表范围内的数值,如果\n[QNCameraVideoTrack.getZooms](https://developer.qiniu.com/rtc/11433/UniappQNCameraVideoTrack#getZooms)\n接口获取到的列表为空,即代表不支持缩放设置:\n\n \n \n cameraVideoTrack.setZoom()\n \n\n# 屏幕共享视频 Track\n\n[QNScreenVideoTrack](https://developer.qiniu.com/rtc/11421/UniappQNScreenVideoTrack)\n为屏幕共享的本地 track,录屏连麦的主要步骤如下:\n\n### 判断设备是否支持屏幕共享\n\n屏幕共享依赖系统版本,可通过 SDK 提供的如下接口判断是否支持:\n\n \n \n const track = QNRTC.createScreenVideoTrack()\n const isSupported track.isScreenCaptureSupported()\n \n\n### 发起屏幕共享请求\n\n由于 iOS 与 Android 系统的差异,在 Android 中需要发起屏幕共享请求,iOS 可跳过此步骤:\n\n \n \n const track = QNRTC.createScreenVideoTrack()\n track.requestPermission((res) => {\n if(res) {\n // 请求成功\n }else {\n // 请求失败\n }\n })\n \n\n# 麦克风音频 Track\n\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/11388/UniappQNMicrophoneAudioTrack)\n为麦克风采集的音频 track,如需以麦克风采集数据作为音频源,仅需创建一个\n[QNMicrophoneAudioTrack](https://developer.qiniu.com/rtc/11388/UniappQNMicrophoneAudioTrack)\n并发布即可,其创建方式如下:\n\n \n \n QNRTC.createMicrophoneAudioTrack({\n bitrate: 24\n })\n \n\n可以传入\n[QNMicrophoneAudioTrackConfig](https://developer.qiniu.com/rtc/11431/UniappQNMicrophoneAudioTrackConfig)\n对象进行参数配置。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
[
{
"from": "human",
"value": "如何处理七牛云的实时音视频房间管理"
},
{
"from": "gpt",
"value": "[实时音视频](https://developer.qiniu.com/rtc) > 使用指南 > Uniapp >房间管理\n\n# 房间管理\n\n最近更新时间: 2023-12-18 15:12:19\n\n**房间**\n是对音视频对话空间的抽象,用于隔离不同的通话过程,保障数据的安全及独立。同一房间内的用户可以互相接收对方的音视频数据。本部分介绍如何进行房间管理,获取房间信息、用户信息以及如何实现踢人等常见功能。\n\n> *\n> 加入、离开房间代表一次音视频通话的开始和结束,一次会话仅需调用一次加入、离开的操作即可,无需重复调用。加入房间后对于音视频数据的发送和接收,可参考发布和订阅相关流程。\n> * 加入房间需要携带相应的 [RoomToken](https://developer.qiniu.com/rtc/9909/the-rtc-\n> basic-\n> concept#room_token),[RoomToken](https://developer.qiniu.com/rtc/9909/the-\n> rtc-basic-concept#room_token) 需通过您的服务端生成,签算方式可参考 [RoomToken\n> 签发服务](https://developer.qiniu.com/rtc/8813/roomToken)。\n>\n\n# 房间的生命周期\n\n * 当用户加入的房间不存在时,七牛后台服务会自动创建对应的房间。\n * 若房间内的所有用户都已离开,那么房间维持空状态 10s 后将会自动关闭。\n * 若房间为服务端创建,且创建后无用户进入,那么房间维持空状态 30s 后将会自动关闭。\n * 若房间内的用户由于断网等原因,30s 未向七牛后台服务通信,则该用户将被视为退出房间。\n\n# 加入房间\n\n本地调用\n[QNRTCClient.join](https://developer.qiniu.com/rtc/11402/UniappQNRTCClient#join)\n通过 roomToken 加入房间。\n\n \n \n const token = \"...\"\n const userData = \"...\"\n client.join(token, userData)\n \n\n> 1.请确保在 `QNConnectionState.DISCONNECTED` 状态下调用该接口加入房间,否则接口调用无效 \n> 2.加入房间时根据业务需求,每个用户可通过 `userData` 携带自定义数据\n\n关于 roomToken 的签算规则,可查阅 [RoomToken\n的签算文档](https://developer.qiniu.com/rtc/8813/roomToken)。\n\n**本地用户收到的回调:**\n\n调用\n[QNRTCClient.join](https://developer.qiniu.com/rtc/11402/UniappQNRTCClient#join)\n接口后,会触发\n[onConnectionStateChanged](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#connectionStateChanged)\n监听回调房间状态改变的通知\n\n * 若加入房间成功,会回调 [QNConnectionState.CONNECTED](https://developer.qiniu.com/rtc/11407/UniappQNConnectionState#CONNECTED) 状态。\n * 若加入房间失败,会回调 [QNConnectionState.DISCONNECTED](https://developer.qiniu.com/rtc/11407/UniappQNConnectionState#DISCONNECTED) 状态,同时可以通过 [QNConnectionDisconnectedInfo](https://developer.qiniu.com/rtc/11387/UniappQNConnectionDisconnectedInfo) 获取失败的原因以及对应的错误码\n\n**远端用户收到的回调:**\n\n \n \n client.on(\"onUserJoined\", (remoteUserID, userData) => {\n // ...\n })\n \n\n# 离开房间\n\n本地调用 [QNRTCClient.leave](https://developer.qiniu.com/rtc/11841/room-\nmanagement-uniapp) 退出房间。本地退出房间成功后,会触发如下回调:\n\n**本地用户收到的回调:**\n\n \n \n client.on(\"onConnectionStateChanged\", (info, state) => {\n // 当房间状态改变时会触发此回调,成功离开房间后,回调状态为 QNConnectionState.DISCONNECTED,QNConnectionDisconnectedInfo 回调 Reason 为 LEAVE\n // ...\n })\n \n\n**远端用户收到的回调:**\n\n \n \n client.on(\"onUserLeft\", (remoteUserID) => {\n // ...\n })\n \n\n# 房间信息\n\n### 获取房间内远端用户信息\n\n本地可调用\n[QNRTCClient.getRemoteUser](https://developer.qiniu.com/rtc/11402/UniappQNRTCClient#getRemoteUsers)\n接口获取音视频通话房间中的所有远端用户。\n\n \n \n const users = client.getRemoteUser()\n \n\n### 获取房间状态信息\n\n本地可以调用\n[QNRTCClient.getConnectionState](https://developer.qiniu.com/rtc/11402/UniappQNRTCClient#getConnectionState)\n接口获取音视频通话的房间状态信息。\n\n \n \n const state = client.getConnectionState()\n \n\n其中 **QNConnectionState** 包含如下状态:\n\n \n \n enum QNConnectionState {\n // 未链接状态, SDK 出现无法恢复错误时也进入该状态\n DISCONNECTED,\n // 正在连接状态, 加入房间时首先进入该状态,表示开始连接房间服务\n CONNECTING,\n // 连接成功状态,在完成和房间服务连接后进入该状态\n CONNECTED,\n // 正在重连状态,当和房间的已有连接由于网络中断、网络异常等原因断开,SDK 进行周期性重连时进入该状态\n RECONNECTING,\n // 重连成功状态,当从 RECONNECTING 状态,重新和房间服务建立连接后进入该状态\n RECONNECTED\n }\n \n\n# 踢人\n\n### 客户端踢人\n\n客户端 SDK 未提供踢人的接口,但是踢人操作可以通过自定义消息来实现。实现步骤可参考如下:\n\n1.业务侧协商定义好踢人消息的格式规范 2.踢人方在执行踢人操作时,向指定用户发送协商好的踢人消息 3.被踢方接收到踢人消息后,主动离开当前房间\n\n示例代码参考如下:\n\n**踢人方:**\n\n踢人方发送协商好的踢人消息:\n\n \n \n client.sendMessage(\"kickOut\", [\"user1\"], \"message1\");\n \n\n其中,自定义消息的使用方式可以参考\n[QNRTCClient.sendMessage](https://developer.qiniu.com/rtc/11402/UniappQNRTCClient#sendMessage)。\n\n**被踢方:**\n\n被踢方监听\n[onMessageReceived](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onMessageReceived)\n回调接口来接收踢人消息,并在收到消息后主动离开房间:\n\n \n \n client.on(\"onMessageReceived\", (info) => {\n if(info.message === \"kickOut\") {\n // 离开房间\n }\n })\n }\n \n\n### 服务端踢人\n\n服务端提供了踢人的接口,详情可参考服务端文档,当服务端执行踢人操作后,会触发被踢方\n[onConnectionStateChanged](https://developer.qiniu.com/rtc/11404/UniappQNRTCClinetEvent#onConnectionStateChanged)\n回调。\n\n其中,被服务端踢出房间的场景下回调的状态为\n[QNConnectionState.DISCONNECTED](https://developer.qiniu.com/rtc/11407/UniappQNConnectionState#DISCONNECTED),同时\n[QNConnectionDisconnectedReason](https://developer.qiniu.com/rtc/11398/UniappQNConnectionDisconnectedReason#KICKED_OUT)\n为 **KICKED_OUT** 。\n\n以上内容是否对您有帮助?\n\n"
}
] | qiniu developer | 1 |
Subsets and Splits