modify readme

This commit is contained in:
s_jqzhang 2019-01-24 11:43:42 +08:00
parent d195681484
commit d25af4ab50
2 changed files with 212 additions and 42 deletions

216
README.md
View File

@ -1,12 +1,15 @@
# 简单分布式文件服务器类fastdfs在运维管理等方面优于fastdfs
# [中文](README.md) [English](README-en.md)
# 分布式文件服务器go-fastdfs类fastdfs在运维管理等方面优于fastdfs更人性化
- 支持curl命令上传
- 支持浏览器上传
- 支持HTTP下载
- 支持多机自动同步
- 类fastdfs
- 高性能
- 高可靠
- 高性能 使用leveldb作为kv库
- 高可靠(设计极其简单,使用成熟组件)
# 优点
@ -14,42 +17,213 @@
- 自动同步
- 失败自动修复
- 按天分目录方便维护
- 支持不同的场景
- 文件自动去重
- 支持目录自定义
- 支持保留原文件名
- 支持自动生成唯一文件名
- 支持浏览器上传
- 运维简单,只有一个角色,配置自动生成
- 每台机器对等
- 支持查看集群文件信息
- 支持集群监控邮件告警
- 支持token下载 token=md5(file_md5+timestamp)
- 运维简单只有一个角色不像fastdfs有三个角色Tracker Server,Storage Server,Client配置自动生成
- 每个节点对等(简化运维)
- 所有节点都可以同时读写
# 启动服务器(已编译,[下载直接](https://github.com/sjqzhang/FileServer/releases)
# 启动服务器(已编译,[下载](https://github.com/sjqzhang/fastdfs/releases)体验
`./fileserver`
# 配置 (conf/cfg.json)
# 配置自动生成 (conf/cfg.json)
```json
{
"绑定端号":"端口",
"addr": ":8080",
"集群":"集群列表",
"peers":["http://10.1.50.xx:8080","http://10.1.14.xx:8080","http://10.1.50.xx:8080"],
"组号":"组号",
"group":"group1",
"refresh_interval":120,
"是否自动重命名":"真假",
"rename_file":false,
"是否支持WEB上专":"真假",
"enable_web_upload":true,
"是否显示目录":"真假",
"show_dir":true
"绑定端号": "端口",
"addr": ":8080",
"集群": "集群列表例如: http://10.1.xx.2:8080,http://10.1.xx.5:8080,http://10.1.xx.60:8080,注意是字符串数组(ip必须不一样)",
"peers": ["http://10.1.xx.2:8080","http://10.1.xx.5:8080","http://10.1.xx.60:8080"],
"组号": "组号",
"group": "group1",
"refresh_interval": 120,
"是否自动重命名": "真假",
"rename_file": false,
"是否支持web上传": "真假",
"enable_web_upload": true,
"是否支持非日期路径": "真假",
"enable_custom_path": true,
"下载域名": "dowonload.web.com",
"download_domain": "",
"场景":"场景列表",
"scenes":[],
"默认场景":"",
"default_scene":"default",
"是否显示目录": "真假",
"show_dir": true,
"邮件配置":"",
"mail":{
"user":"abc@163.com",
"password":"abc",
"host":"smtp.163.com:25"
},
"告警接收邮件列表":"",
"alram_receivers":[],
"告警接收URL":"",
"alarm_url":"",
"下载是否需带token":"真假",
"download_use_token":false,
"下载token过期时间":"",
"download_token_expire":600,
"是否自动修复":"可能存在性问题(每小时一次)",
"auto_repair":true,
"文件去重算法md5可能存在冲突默认md5":"sha1|md5",
"file_sum_arithmetic":"md5"
}
```
# 命令上传
`curl -F file=@http-index-fs http://10.1.50.90:8080/upload`
`curl -F file=@http-index-fs http://10.1.xx.60:8080/upload`
# WEB上传浏览器打开
`http://127.0.0.1:8080`
# 代码上传(选项参阅浏览器上传)
```python
import requests
url = 'http://127.0.0.1:8080/upload'
files = {'file': open('report.xls', 'rb')}
options={'output':'json','path':'','scene':''} #参阅浏览器上传的选项
r = requests.post(url, files=files)
print(.text)
```
# 有问题请[点击反馈](https://github.com/sjqzhang/go-fastdfs/issues/new)
# Q&A
- 已经使用fastdfs存储的文件可以迁移到go fastdfs下么
```
答案是可以的,你担心的问题是路径改变,go fastdfs为你考虑了这一点
curl -F file=@data/00/00/_78HAFwyvN2AK6ChAAHg8gw80FQ213.jpg -F path=M00/00/00/ http://127.0.0.1:8080/upload
同理可以用一行命令迁移所有文件
cd fastdfs/data && find -type f |xargs -n 1 -I {} curl -F file=@data/{} -F path=M00/00/00/ http://127.0.0.1:8080/
以上命令可以过迁粗糙
可以写一些简单脚本进行迁移
```
- 还需要安装nginx么
```
可以不安装,也可以选择安装
go fastdfs 本身就是一个高性能的web文件服务器。
```
- 能动态加载配置么?
```
答案:是可以的,但要更新到最新版本
步骤:
1修改 conf/cfg.json 文件
2访问 http://10.1.xx.60:8080/reload
3 注意:每个节点都需要进行同样的操作
```
- 内存占用很高是怎么回事?
```
正常情况下内存应该低于2G除非每天上传文件超过百万
内存异常,主要是集群的文件没有同步,同时开启了自动修复功能
处理办法删除data目录下当天的errors.md5文件关闭自动修复重启服务
参阅系统状态说明
```
- 如何查看集群文件信息?
```
http://10.1.xx.60:8080/stat
如果出现文件统计出错怎么办?
请删除 data目录下的 stat.json文件 重启服务,请系统自动重新计算文件数。
或者调用
http://10.1.xx.60:8080/repair_stat
```
- 可靠性怎样,能用于生产环境么?
```
本项目已大规模用于生产环境,如担心不能满足
可以在使用前对其各项特性进行压力测试,有任何
问题可以直接提issue
```
- 能不能在一台机器部置多个服务端?
```
不能在设计之初就已考虑到集群的高可用问题为了保证集群的真正可用必须为不同的ip,ip 不能用 127.0.0.1
错误 "peers": ["http://127.0.0.1:8080","http://127.0.0.1:8081","http://127.0.0.1:8082"]
正确 "peers": ["http://10.0.0.3:8080","http://10.0.0.4:8080","http://10.0.0.5:8080"]
```
- 文件不同步了怎么办?
```
正常情况下,集群会每小时自动同步修复文件。(性能较差,在海量情况下建议关闭自动修复)
那异常情况下怎么?
答案:手动同步(最好在低峰执行)
http://172.16.70.123:7080/sync?date=20190117&force=1
参数说明date 表示同步那一天的数据 force 1.表示是否强制同步当天所有(性能差)0.表示只同步失败的文件
不同步的情况:
1) 原来运行N台现在突然加入一台变成N+1台
2原来运行N台某一台机器出现问题变成N-1台
如果出现多天数据不一致怎么办?能一次同步所有吗?
答案是可以:(最好在低峰执行)
http://172.16.70.123:7080/repair?force=1
```
- 文件不同步会影响访问吗?
```
答案:不会影响,会在访问不到时,自动修复不同步的文件。
```
- 如何查看系统状态及说明?
```
http://172.16.70.123:7080/status
注意:Fs.Peers是不带本机的如果带有可能出问题
本机为 Fs.Local
sts["Fs.ErrorSetSize"] = this.errorset.Cardinality() 这个会导致内存增加
```
- 如何压测?
```
先用gen_file.py产生大量文件注意如果要生成大文件自已在内容中乘上一个大的数即可
例如:
# -*- coding: utf-8 -*-
import os
j=0
for i in range(0,1000000):
if i%1000==0:
j=i
os.system('mkdir %s'%(i))
with open('%s/%s.txt'%(j,i),'w+') as f:
f.write(str(i)*1024)
接着用benchmark.py进行压测
也可以多机同时进行压测,所有节点都是可以同时读写的
```
- 有问题请[点击反馈](https://github.com/sjqzhang/go-fastdfs/issues/new)

View File

@ -5,8 +5,6 @@ import (
"crypto/rand"
"crypto/sha1"
"encoding/base64"
"github.com/syndtr/goleveldb/leveldb/filter"
"github.com/syndtr/goleveldb/leveldb/opt"
"runtime"
"errors"
@ -278,11 +276,12 @@ func NewServer() *Server {
server.curDate = server.util.GetToDay()
o := &opt.Options{
Filter: filter.NewBloomFilter(160),
}
//o := &opt.Options{
// Filter: filter.NewBloomFilter(160),
//
//}
ldb, err = leveldb.OpenFile(CONST_LEVELDB_FILE_NAME, o)
ldb, err = leveldb.OpenFile(CONST_LEVELDB_FILE_NAME, nil)
if err != nil {
fmt.Println(err)
panic(err)
@ -1247,7 +1246,7 @@ func (this *Server) SaveFileMd5Log(fileInfo *FileInfo, filename string) {
logSet mapset.Set
toDay string
//tmpInfo *FileInfo
ok bool
//ok bool
)
toDay = this.util.GetToDay()
@ -1262,18 +1261,16 @@ func (this *Server) SaveFileMd5Log(fileInfo *FileInfo, filename string) {
if logDate != this.util.GetToDay() && filename == CONST_FILE_Md5_FILE_NAME {
ok, err = this.ldb.Has([]byte(fileInfo.Md5), nil)
//ok, err = this.ldb.Has([]byte(fileInfo.Md5), nil)
if ok {
if logSet, err = this.GetMd5sByDate(logDate, CONST_FILE_Md5_FILE_NAME); err != nil {
log.Error(err)
}
if logSet.Contains(fileInfo.Md5) {
log.Info(fmt.Sprintf("date log %s contain md5 %s", logDate, fileInfo.Md5))
return
}
if logSet, err = this.GetMd5sByDate(logDate, CONST_FILE_Md5_FILE_NAME); err != nil {
log.Error(err)
}
if logSet.Contains(fileInfo.Md5) {
log.Info(fmt.Sprintf("date log %s contain md5 %s", logDate, fileInfo.Md5))
return
}
}
if fileInfo.ReName != "" {
@ -1369,7 +1366,7 @@ func (this *Server) CheckFileExist(w http.ResponseWriter, r *http.Request) {
return
}
} else {
this.RemoveKeyFromLevelDB(md5sum)// when file delete,delete from leveldb
this.RemoveKeyFromLevelDB(md5sum) // when file delete,delete from leveldb
}
}
data, _ = json.Marshal(FileInfo{})
@ -1475,13 +1472,12 @@ func (this *Server) SaveStat() {
}
func (this *Server) RemoveKeyFromLevelDB(key string) (error) {
var (
err error
err error
)
err=this.ldb.Delete([]byte(key),nil)
err = this.ldb.Delete([]byte(key), nil)
return err
}