go-fastdfs/README.md

426 lines
12 KiB
Markdown
Raw Normal View History

2019-01-24 11:43:42 +08:00
# [中文](README.md) [English](README-en.md)
2019-01-30 15:18:03 +08:00
![logo](doc/logo.png)
2019-01-28 19:22:11 +08:00
2019-02-11 17:46:40 +08:00
2019-02-12 11:08:19 +08:00
# go-fastdfs是一个基于http协议的分布式文件系统它基于大道至简的设计理念一切从简设计使得它的运维及扩展变得更加简单它具有高性能、高可靠、无中心、免维护等优点。
2019-02-11 13:50:27 +08:00
2019-01-03 10:37:01 +08:00
2018-12-29 20:31:01 +08:00
- 支持curl命令上传
- 支持浏览器上传
2019-01-03 10:37:01 +08:00
- 支持HTTP下载
2018-12-30 18:22:04 +08:00
- 支持多机自动同步
2019-02-07 17:23:08 +08:00
- 支持断点下载
2019-02-07 18:08:39 +08:00
- 支持配置自动生成
2019-02-14 19:15:17 +08:00
- 支持小文件自动合并(减少inode占用)
2019-02-16 11:25:07 +08:00
- 支持秒传
2019-02-18 17:45:01 +08:00
- 支持继点续传([tus](https://tus.io/))
2019-02-16 11:25:07 +08:00
- 支持docker部署
2019-02-07 18:08:39 +08:00
- 支持自监控告警
- 支持集群文件信息查看
2019-02-07 17:23:08 +08:00
- 使用通用HTTP协议
- 无需专用客户端支持wget,curl等工具
2019-01-02 18:50:35 +08:00
- 类fastdfs
2019-01-24 11:43:42 +08:00
- 高性能 使用leveldb作为kv库
- 高可靠(设计极其简单,使用成熟组件)
2019-02-03 13:51:40 +08:00
- 无中心设计(所有节点都可以同时读写)
2018-12-29 20:29:38 +08:00
2019-01-02 20:42:39 +08:00
# 优点
- 无依赖(单一文件)
- 自动同步
- 失败自动修复
- 按天分目录方便维护
2019-01-24 11:43:42 +08:00
- 支持不同的场景
2019-01-03 10:37:01 +08:00
- 文件自动去重
2019-01-24 11:43:42 +08:00
- 支持目录自定义
- 支持保留原文件名
- 支持自动生成唯一文件名
2019-01-03 10:13:22 +08:00
- 支持浏览器上传
2019-01-24 11:43:42 +08:00
- 支持查看集群文件信息
- 支持集群监控邮件告警
2019-02-16 11:25:07 +08:00
- 支持小文件自动合并(减少inode占用)
- 支持秒传
2019-02-18 17:45:01 +08:00
- 支持继点续传([tus](https://tus.io/))
2019-02-16 11:25:07 +08:00
- 支持docker部署
2019-01-24 11:43:42 +08:00
- 支持token下载 token=md5(file_md5+timestamp)
- 运维简单只有一个角色不像fastdfs有三个角色Tracker Server,Storage Server,Client配置自动生成
- 每个节点对等(简化运维)
- 所有节点都可以同时读写
2019-01-02 20:42:39 +08:00
2018-12-29 20:29:38 +08:00
2019-01-28 21:56:35 +08:00
# 启动服务器(已编译,[下载](https://github.com/sjqzhang/fastdfs/releases)极速体验,只需一分钟)
2018-12-30 18:22:04 +08:00
2019-01-02 18:50:35 +08:00
`./fileserver`
2018-12-30 18:22:04 +08:00
2019-01-24 11:43:42 +08:00
2019-01-03 22:29:42 +08:00
# 命令上传
2018-12-29 20:31:01 +08:00
2019-01-24 11:43:42 +08:00
`curl -F file=@http-index-fs http://10.1.xx.60:8080/upload`
2019-01-03 10:13:22 +08:00
2019-01-03 10:43:08 +08:00
# WEB上传浏览器打开
2019-01-29 09:54:01 +08:00
`http://yourserver ip:8080` 注意不要使用127.0.0.1上传
2019-01-24 11:43:42 +08:00
# 代码上传(选项参阅浏览器上传)
2019-02-16 11:25:07 +08:00
## python版本:
2019-01-24 11:43:42 +08:00
```python
import requests
2019-01-31 13:05:23 +08:00
url = 'http://10.1.5.9:8080/upload'
2019-01-24 11:43:42 +08:00
files = {'file': open('report.xls', 'rb')}
options={'output':'json','path':'','scene':''} #参阅浏览器上传的选项
r = requests.post(url, files=files)
2019-01-29 09:54:01 +08:00
print(r.text)
2019-01-24 11:43:42 +08:00
```
2019-02-16 11:25:07 +08:00
## golang版本
2019-01-31 13:04:05 +08:00
```go
package main
import (
"fmt"
"github.com/astaxie/beego/httplib"
)
func main() {
var obj interface{}
2019-01-31 13:05:23 +08:00
req:=httplib.Post("http://10.1.5.9:8080/upload")
2019-01-31 13:04:05 +08:00
req.PostFile("file","path/to/file")
req.Param("output","json")
req.Param("scene","")
req.Param("path","")
req.ToJSON(&obj)
fmt.Print(obj)
}
```
2019-02-16 11:25:07 +08:00
## java版本
依赖(这里使用了hutool工具包,更简便)
```xml
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>4.4.3</version>
</dependency>
```
上传代码
```java
public static void main(String[] args) {
//文件地址
File file = new File("D:\\git\\2.jpg");
//声明参数集合
HashMap<String, Object> paramMap = new HashMap<>();
//文件
paramMap.put("file", file);
//输出
paramMap.put("output","json");
//自定义路径
paramMap.put("path","image");
//场景
paramMap.put("scene","image");
//上传
String result= HttpUtil.post("http://xxxxx:xxxx/upload", paramMap);
//输出json结果
System.out.println(result);
}
```
2019-02-12 11:08:19 +08:00
[更多语言请参考](doc/upload.md)
2019-02-18 17:45:01 +08:00
# 断点续传示例
## golang版本
```go
package main
import (
"os"
"fmt"
"github.com/eventials/go-tus"
)
func main() {
f, err := os.Open("100m")
if err != nil {
panic(err)
}
defer f.Close()
// create the tus client.
client, err := tus.NewClient("http://10.1.5.9:8080/big/upload/", nil)
fmt.Println(err)
// create an upload from a file.
upload, err := tus.NewUploadFromFile(f)
fmt.Println(err)
// create the uploader.
uploader, err := client.CreateUpload(upload)
fmt.Println(err)
// start the uploading process.
fmt.Println( uploader.Upload())
}
````
[更多客户商请参考](https://github.com/tus)
2019-01-31 13:04:05 +08:00
2019-02-02 10:41:57 +08:00
部署图
![部署图](doc/go-fastdfs-deploy.png)
2019-01-24 11:43:42 +08:00
# 有问题请[点击反馈](https://github.com/sjqzhang/go-fastdfs/issues/new)
2019-01-28 19:22:11 +08:00
# 重要说明
## 在issue中有很多实际使用的问题及回答很多已关闭请查看已关闭的issue
2019-01-24 11:43:42 +08:00
# Q&A
2019-02-02 11:03:47 +08:00
- 在微信讨论群中大家都问到go-fastdfs性能怎样
```
由于问的人太多,在这里统一回答。
go-fastdfs的文件定位与其它分布式系统不同它的寻址是直接定位不经过任何组件所以可以近似时间复杂度为o(1)[文件路径定位]
基本没有性能损耗,项目中也附有压测脚本,大家可以自已进行压测,群里就不要太多讨论问题了,人多每次回复同样的问题
大家也会觉得这群无聊。
2019-02-02 11:05:24 +08:00
```
2019-02-11 18:04:47 +08:00
2019-01-24 11:43:42 +08:00
- 已经使用fastdfs存储的文件可以迁移到go fastdfs下么
```
答案是可以的,你担心的问题是路径改变,go fastdfs为你考虑了这一点
curl -F file=@data/00/00/_78HAFwyvN2AK6ChAAHg8gw80FQ213.jpg -F path=M00/00/00/ http://127.0.0.1:8080/upload
同理可以用一行命令迁移所有文件
cd fastdfs/data && find -type f |xargs -n 1 -I {} curl -F file=@data/{} -F path=M00/00/00/ http://127.0.0.1:8080/
以上命令可以过迁粗糙
可以写一些简单脚本进行迁移
```
2019-02-11 18:04:47 +08:00
- 什么是集群如何用Nginx管理多集群
```
1、在go-fastdfs中一个集群就是一个group。
2、请参阅部署图
注意:配置中的 support_group_manage 参数设为true时所有的url中都自动添加组信息。
例如http://10.1.5.9:8080/group/status
默认http://10.1.5.9:8080/status
区别多了group,对应配置中的 group 参数,这样主要是为了解决一个Nginx反向代理多个group(集群)
具体请参阅部署图
```
2019-02-01 11:31:19 +08:00
- 如何搭建集群?
```
一、先下载已编译的可执行文件(用最新版本)
二、运行可执行文件(生成配置)
三、修改配置
peers增加对端的http地址
检查:
host:自动生成是否正确
peer_id:集群内是否唯一
四、重新运行服器
五、验证服务是否OK
```
2019-01-28 19:22:11 +08:00
- 适合海量存储吗?
```
答案:适合海量存储
特别说明:
需然用leveldb作为元数据存储但不强依懒leveldb
并且进行超过1亿以上的文件进行压测(可以用项目提供的脚本进行压测有问题及时反馈到issue)
1亿文件元数据大小约5G,导出元数据文本大小22G
```
2019-02-18 17:45:01 +08:00
2019-01-24 11:43:42 +08:00
- 还需要安装nginx么
```
可以不安装,也可以选择安装
go fastdfs 本身就是一个高性能的web文件服务器。
```
- 能动态加载配置么?
```
答案:是可以的,但要更新到最新版本
步骤:
1修改 conf/cfg.json 文件
2访问 http://10.1.xx.60:8080/reload
3 注意:每个节点都需要进行同样的操作
```
- 内存占用很高是怎么回事?
```
正常情况下内存应该低于2G除非每天上传文件超过百万
内存异常,主要是集群的文件没有同步,同时开启了自动修复功能
处理办法删除data目录下当天的errors.md5文件关闭自动修复重启服务
参阅系统状态说明
```
- 如何查看集群文件信息?
```
http://10.1.xx.60:8080/stat
如果出现文件统计出错怎么办?
请删除 data目录下的 stat.json文件 重启服务,请系统自动重新计算文件数。
或者调用
http://10.1.xx.60:8080/repair_stat
```
- 可靠性怎样,能用于生产环境么?
```
本项目已大规模用于生产环境,如担心不能满足
可以在使用前对其各项特性进行压力测试,有任何
问题可以直接提issue
```
- 能不能在一台机器部置多个服务端?
```
不能在设计之初就已考虑到集群的高可用问题为了保证集群的真正可用必须为不同的ip,ip 不能用 127.0.0.1
错误 "peers": ["http://127.0.0.1:8080","http://127.0.0.1:8081","http://127.0.0.1:8082"]
正确 "peers": ["http://10.0.0.3:8080","http://10.0.0.4:8080","http://10.0.0.5:8080"]
```
- 文件不同步了怎么办?
```
正常情况下,集群会每小时自动同步修复文件。(性能较差,在海量情况下建议关闭自动修复)
那异常情况下怎么?
答案:手动同步(最好在低峰执行)
2019-01-29 09:54:01 +08:00
http://172.16.70.123:7080/sync?date=20190117&force=1 (说明:要在文件多的服务器上执行,相关于推送到别的服务器)
2019-01-24 11:43:42 +08:00
参数说明date 表示同步那一天的数据 force 1.表示是否强制同步当天所有(性能差)0.表示只同步失败的文件
不同步的情况:
1) 原来运行N台现在突然加入一台变成N+1台
2原来运行N台某一台机器出现问题变成N-1台
如果出现多天数据不一致怎么办?能一次同步所有吗?
答案是可以:(最好在低峰执行)
http://172.16.70.123:7080/repair?force=1
```
- 文件不同步会影响访问吗?
```
答案:不会影响,会在访问不到时,自动修复不同步的文件。
```
- 如何查看系统状态及说明?
```
http://172.16.70.123:7080/status
注意:Fs.Peers是不带本机的如果带有可能出问题
本机为 Fs.Local
sts["Fs.ErrorSetSize"] = this.errorset.Cardinality() 这个会导致内存增加
```
- 如何压测?
```
先用gen_file.py产生大量文件注意如果要生成大文件自已在内容中乘上一个大的数即可
例如:
# -*- coding: utf-8 -*-
import os
j=0
for i in range(0,1000000):
if i%1000==0:
j=i
os.system('mkdir %s'%(i))
with open('%s/%s.txt'%(j,i),'w+') as f:
f.write(str(i)*1024)
接着用benchmark.py进行压测
也可以多机同时进行压测,所有节点都是可以同时读写的
```
2019-02-12 11:08:19 +08:00
- 代码为什么写在一个文件中?
```
一、目前的代码还非常简单,没必要弄得太复杂。
二、个人理解模块化不是分开多个文件就表示模块化大家可以用IDE去看一下代码结构其实是已经模块化的。
```
2019-02-07 17:23:08 +08:00
- 支持断点下载?
```
答案:支持
curl wget 如何
wget -c http://10.1.5.9:8080/group1/default/20190128/16/10/2G
culr -C - http://10.1.5.9:8080/group1/default/20190128/16/10/2G
```
2019-01-24 11:43:42 +08:00
2019-02-16 11:39:53 +08:00
- Docker如何部署
```
2019-02-17 12:06:19 +08:00
步骤:
一、构建镜像
docker build . -t fastdfs
二、运行容器(使用环境变量 GO_FASTDFS_DIR 指向存储目录。)
docker run --name fastdfs -v ~:/data/fastdfs -e GO_FASTDFS_DIR=/data/fastdfs fastdfs
2019-02-16 11:39:53 +08:00
```
2019-02-18 17:45:01 +08:00
- 大文件如何分块上传或断点续传?
2019-02-16 11:25:07 +08:00
```
一般的分块上传都要客户端支持,而语言的多样性,客户端难以维护,但分块上传的功能又有必要,为此提供一个简单的实现思路。
方案一、
借助linux split cat 实现分割与合并,具体查看 split 与 cat 帮助。
分割: split -b 1M filename #按每个文1M
合并: cat x* > filename #合并
方案二、
借助hjsplit
http://www.hjsplit.org/
具体自行实现
方案三、
建议用go实现hjsplit分割合并功这样具有跨平台功能。未实现等你来....
2019-02-18 17:45:01 +08:00
方案四、
使用内置的继点续传功能使用protocol for resumable uploads协议[详情](https://tus.io/)
注意方案四、只能指定一个上传服务器不支持同时写并且上传的url有变化
原上传url http://10.1.5.9:8080/<group>/upload
断点上传url http://10.1.5.9:8080/<group>/big/upload/
2019-02-18 17:58:59 +08:00
上传完成,再通过秒传接口,获取文件信息
```
- 如何秒传文件?
```
通过http get的方式访问上传接口
http://10.0.5.9:8080/upload?md5=filesum&output=json
参数说明:
md5=sum(file) 文件的摘要算法要与文件务器的算法一致算法支持md5|sha1
output=json|text 返回的格式
2019-02-18 17:46:48 +08:00
```
2019-02-16 11:25:07 +08:00
2019-01-28 19:22:11 +08:00
- 集群如何规划及如何进行扩容?
```
建议在前期规划时,尽量采购大容量的机器作为存储服务器,如果要两个复本就用两台组成一个集群,如果要三个复本
就三台组成一个集群。(注意每台服务器最好配置保持一样)
如果提高可用性只要在现在的集群peers中加入新的机器再对集群进行修复即可。
修复办法 http://172.16.70.123:7080/repair?force=1 (建议低峰变更)
如何扩容?
为简单可靠起见,直接搭建一个新集群即可(搭建就是启动./fileserver进程设置一下peers的IP地址三五分钟的事
issue中chengyuansen同学向我提议使用增加扩容特性我觉得对代码逻辑及运维都增加复杂度暂时没有加入这特性。
```
2019-01-31 14:12:48 +08:00
- 访问限制问题
```
出于安全考虑,管理API只能在群集内部调用或者用127.0.0.1调用.
```
2019-01-28 19:22:11 +08:00
2019-02-16 11:39:53 +08:00
2019-01-24 11:43:42 +08:00
- 有问题请[点击反馈](https://github.com/sjqzhang/go-fastdfs/issues/new)
2019-01-30 15:30:35 +08:00
或加
![二维码](doc/wechat.jpg)
2019-01-24 11:43:42 +08:00