JuiceFS 之前,边缘渲染主要利用字节跳动内部的对象存储服务(TOS),用户上传数据到 TOS 中,渲染引擎再从 TOS 上将用户上传的文件下载到本地,渲染引擎读取本地的文件,生成渲染结果,再将渲染结果上传回 TOS,最后用户从 TOS 中下载渲染结果。整体的交互流程有好几个环节,而且中间涉及到比较多的网络以及数据拷贝,所以在这个过程中会存在网络抖动或者时延偏高的情况,影响用户体验。
经验元数据引擎JuiceFS 支持了非常多的元数据引擎(如 MySQL、Redis),火山引擎边缘存储生产环境采用的是 MySQL。我们在评估了数据量与文件数的规模(文件数在千万级,大概几千万,读多写少场景),以及写入与读取性能以后,发现 MySQL 在运维、数据可靠性,以及事务方面都做得比较好。
MySQL 目前采用的是单实例和多实例(一主二从)两种部署方案,针对边缘不同的场景灵活选择。在资源偏少的环境,可以采用单实例的方式来进行部署,MySQL 的吞吐在给定的范围之内还是比较稳定的。这两种部署方案都使用高性能云盘(由 Ceph 集群提供)作为 MySQL 的数据盘,即使是单实例部署,也能保证 MySQL 的数据不会丢失。
在资源比较丰富的场景,可以采用多实例的方式来进行部署。多实例的主从同步通过 MySQL Operator 提供的 orchestrator 组件实现,两个从实例全部同步成功才认为是 OK 的,但是也设置了超时时间,如果超时时间到了还没有同步完成,则会返回成功,并打出报警。待后期的容灾方案健全后,可能会采用本地盘作为 MySQL 的数据盘,进一步提升读写性能,降低时延以及提升吞吐。
MySQL 单实例配置
容器资源:
CPU:8C
内存:24G
磁盘:100G(基于 Ceph RBD,在存储千万级文件的场景下元数据大约占用 30G 磁盘空间)
容器镜像:mysql:5.7
MySQL 的 my.cnf 配置:
ignore-db-dir=lost+found # 如果使用 MySQL 8.0 及以上版本,需要删除这个配置
max-connections=4000
innodb-buffer-pool-size=12884901888 # 12G复制代码对象存储对象存储