跑批检测 项目说明

现在有一个表是stock,需要按照股票代码分割导出文件,文件的格式为”股票代码.csv”

已知数据库有58万条股票记录,现在要求把这些股票数据导成csv格式,按照股票代码.csv的格式导出,每个小时执行并生产一个股票的csv文件。生成文件的顺序为股票代码从小到大排序。
质量要求
1) 该脚本可以需要带参数,参数的就是股票代码
2) 该脚本需要能够检测导出的数据,总数是否正确,其中检查成交总金额的总计是否相等,如果不相等,需要重跑。
3) 如果再次执行这个文件,文件先要检测文件是否存在,是个文件存在,那么考察文件内容是否符合2),不符合,生成csv文件

最后结果:

backup_stock stock_code

backup_stock.sh 000002

#
/backup/000001.csv
/backup/000002.csv
….
/backup/000100.csv

ctontab

接口邀请

shell端和服务器端的契约

获取当前需要跑批的股票代码

存储过程名称 参数 返回值
sp_get_stock_info 无参数 打印出 股票代码 ,行数,交易量总汇总 ,例子 000001,5888,499499499494
sp_update_stock_log stockid

shuom

存储过程要求
1.查询出所有的文件记录条数
2.根据股票代码分组 利用row_num()分组 并记录每个分组的总数 输出一个分组的值
3.每一组保存到一个csv文件 格式:00000x.csv x为每个股票代码的序列号 文件名要求6位数不足前面补0 输出一个文件名
4.把结果记录到 count_gupiao 表里

用plsql写存储过程,保证能够执行成功,能否在Linux上调用 你们不用管
@杨优烽 @李昌信 @陈凯

作者:严锋  创建时间:2024-04-10 08:41
最后编辑:严锋  更新时间:2024-04-10 15:21