客户端常用配置§
OSS/OSS-HDFS§
配置项 | 类型 | 默认值 | 说明 | 版本 |
---|---|---|---|---|
logger.dir | 字符串 | /tmp/bigboot-log | 日v志目录,不存在会创建 | 4.3.0+ |
logger.sync | 布尔值 | false | 是否同步输出日志,false表示异步输出 | 4.3.0+ |
logger.consolelogger | 布尔值 | false | 打印日志到终端 | 4.3.0+ |
logger.level | 整型 | 2 | 关闭终端日志,使用文件日志时:日志等级<=1,表示WARN;日志等级>1,表示INFO。开启终端日志时,日志等级范围为0-6,分别表示:TRACE、DEBUG、INFO、WARN、ERROR、CRITICAL、OFF。 | 4.3.0+ |
logger.verbose | 整型 | 0 | 输出大于等于该等级的VERBOSE日志,等级范围为0-99,0表示不输出 | 4.3.0+ |
logger.cleaner.enable | 布尔值 | false | 是否开启日志清理 | 4.3.0+ |
fs.oss.tmp.data.dirs | 字符串 | /tmp/ | 客户端写入时的临时文件目录,可配置多个(逗号隔开),会轮流写入,多用户环境需配置可读写权限 | 4.3.0+ |
fs.oss.tmp.data.cleaner.enable | 布尔值 | true | 临时文件自清理服务 | 4.3.0+ |
fs.oss.retry.count | 整型 | 5 | 访问 OSS/OSS-HDFS 失败重试次数 | 4.3.0+ |
fs.oss.retry.interval.millisecond | 整型 | 500 | 访问 OSS/OSS-HDFS 失败重试间隔(毫秒) | 4.3.0+ |
fs.oss.timeout.millisecond | 整型 | 30000 | 请求 OSS/OSS-HDFS 超时时间(毫秒) | 4.3.0+ |
fs.oss.connection.timeout.millisecond | 整型 | 3000 | 连接 OSS/OSS-HDFS 超时时间(毫秒) | 4.3.0+ |
fs.oss.max.connections.per.host | 整型 | 100 | 连接 oss 的连接池对每个host的最大连接数(超过阈值外的连接会使用短连接) | 4.3.0+ |
fs.oss.upload.thread.concurrency | 整型 | MAX(cpu核数,16) | 进程内 OSS/OSS-HDFS 并发上传线程数 | 4.3.0+(deprecated) |
fs.oss.upload.queue.size | 整型 | MAX(cpu核数,16) | 进程内 OSS/OSS-HDFS 并发上传任务队列大小 | 4.3.0+(deprecated) |
fs.oss.upload.max.pending.tasks.per.stream | 整型 | 10 | 单个文件 OSS/OSS-HDFS 最大并发上传任务数 | 4.3.0+(deprecated) |
fs.oss.download.thread.concurrency | 整型 | MAX(cpu核数,16) | 进程内 OSS/OSS-HDFS 最大并发下载任务数 | 4.3.0+(deprecated) |
fs.oss.read.readahead.max.buffer.count | 整型 | 48 | 最大同时预读 oss 的 buffer 个数 | 4.5.1+ |
fs.oss.read.buffer.size | 整型 | 1048576 | oss 读缓冲区大小(字节) | 4.3.0+ |
fs.oss.write.buffer.size | 整型 | 1048576 | oss 写缓冲区大小(字节) | 4.3.0+ |
fs.oss.flush.interval.millisecond | 整型 | -1 | oss 刷新缓冲区间隔(毫秒),小于 0 时不生效 | 4.3.0+ |
fs.oss.memory.buffer.size.max.mb | 整型 | 6124 | 内存池总容量(单位:MB) | 4.3.0+ |
fs.oss.memory.buffer.size.watermark | 浮点型 | 0.3 | 内存池用于预读的容量比例 | 4.3.0+ |
fs.oss.blocklet.size.mb | 整型 | 8 | oss 分块上传时的块大小(MB)由于分块数量最多为10000块,因此默认写入文件不能超过80GB。如果有个别文件超过80G,建议根据文件大小单独调大本配置,并同时调大请求 oss 的超时时间。如文件大小未知,或者远远超过80G(如超过160G),建议考虑使用 OSS-HDFS(无文件大小限制) | 4.5.2+ |
fs.oss.checksum.crc64.enable | 布尔值 | true | 文件级别 crc64 完整性校验,目前对写OSS-HDFS性能有较大影响,性能优先场景可以考虑关闭。 | 4.6.0+ |
fs.oss.checksum.md5.enable | 布尔值 | false | 请求级别 md5 完整性校验 | 4.6.0+ |
fs.oss.read.readahead.prefetcher.version | 字符串 | default | 可选值:legacy 原预读算法, default 新预读算法。新预读算法可能使用更多内存。若配置了新预读算法后发生性能下降,可能是由于内存池容量不足导致预读的块在被访问到之前就被提前逐出。为了避免该情况发生,可以考虑缩减最大预读长度,或允许预读使用更多内存。 |
6.2.0+ |
fs.oss.read.readahead.prefetch.size.max | 整型 | 268435456 | 预读最大长度(单位:byte) | 6.2.0+ |
fs.oss.signer.version | 整型 | 0 | 签名算法版本,可选值[0,1,4]。推荐使用0,表示默认算法版本,6.3.0版本之后默认使用 V4 签名算法提高访问 OSS/OSS-HDFS,若特殊场景希望指定签名算法版本,请指定 1 或 4。 | 6.3.0+ |
fs.oss.io.timeout.millisecond | 整型 | 90000 | 请求 OSS/OSS-HDFS 读写操作超时时间(毫秒) | 6.6.0+ nextarch |
fs.oss.async.executor.number | 整型 | cpu核数 | 进程内 OSS/OSS-HDFS 异步io线程数 | 6.6.0+ nextarch |
fs.oss.upload.async.concurrency | 整型 | MAX(cpu核数,16) | 进程内 OSS/OSS-HDFS 异步上传并发数 | 6.6.0+ nextarch |
fs.oss.download.async.concurrency | 整型 | MAX(cpu核数,16) | 进程内 OSS/OSS-HDFS 异步下载并发数 | 6.6.0+ nextarch |
fs.jdo.metrics.level | 整型 | 1 | mertrics 收集等级,0是不收集,1是静态metrics,2是包含 bucket 信息的动态 metrics,3包含所有 metrics | 6.6.0+ nextarch |
fs.jdo.metrics.file.enable | 布尔值 | false | 控制是否输出 metrics 到文件 | 6.6.0+ nextarch |
fs.jdo.metrics.file.clean.enable | 布尔值 | false | 控制是否自动清理输出 metrics 的文件 | 6.6.0+ nextarch |
fs.jdo.metrics.file.dir | 字符串 | /tmp/metrics | 输出 metrics 到文件的所在目录 | 6.6.0+ nextarch |
fs.jdo.metrics.interval.sec | 整型 | 15 | 输出 metrics 到文件的间隔时间 | 6.6.0+ nextarch |
Credential Provider 相关配置,详见《配置 OSS/OSS-HDFS Credential Provider》