写在前面

博主工作长期需使用到数据库查询数据,因而接触到了数据库的一些皮毛知识。但是数据库和办公网不能互通,远端访问也没法实现python创建文件并写入内容,所以长期以来查询数据都相当麻烦。近期博主在自己的工作电脑上搭建了一个的MySQL数据库,并尝试导入一些数据进去,顺便自己查询,其中遇到了各种各样的问题,才深刻领悟到后端操作的艰难,写篇博客记录一下其中的艰难过程。

注:以下内容,仅供用于学习交流,而且博主也对相关内容进行的打码处理,文件名和数据库名都是用的XXX来表示的。

数据库搭建

博主的数据库是用的MySQL,用的是CMD命令行方式安装和配置的,网上有很多教程,但是良莠不齐python创建文件并写入内容,有空了我专门写一篇博客记录安装过程,这边博客就不说了。不过在安装时,一定要牢记系统给你默认设置的连接密码,如果没记住的话,会让你崩溃,网上教程一堆,能实际解决问题的没两个,这个密码是关键,切记、切记。

数据库可视化软件

博主用的是Navicat premium 15,界面如下:

python创建文件并写入内容_python将数据写入文件_linux python 写入文件

为什么需要这个软件呢,这个软件可以让你方便的连接你的数据库,也可以在里面写一些查询语句,甚至可以将数据导入到数据库,而且还支持批量导入,总之,非常方便,可以理解为数据库的前端操作软件。但实际使用过程却没有那么友好,比如我导入数据到我的数据库时,经常出现下面的问题:

python将数据写入文件_python创建文件并写入内容_linux python 写入文件

finished with error

也不告诉你那里出了错,反正就是数据不全,大概只导入了1/4的数据。当然也不是所有的数据导入都会出现这个问题,但是确实头疼,博主网上搜了一堆教程没一个能解释明白的,所以才有了后面用Python导入数据库的尝试。不过用Navicat写查询语句确实方便,你的数据库需要这么个数据库可视化软件,不然你操作数据库,就永远像个黑客一样在CMD里写命令行来操作了。

批量合并数据文件

博主这边有很多txt文件,但都是同一批字段的数据,至于为什么会这样,博主也懒得解释。反正现在的工作是,把这些txt文件合并到一个文件里去,这样导入数据库也方便点不是吗?

当然你也可以自己在excel里面一个个的复制粘贴,但是感觉一是工作量太大,十来个文件还好,几百个文件你要这么操作,能让人抓狂,而且逼格也太低了,现在流行自动化办公。

直接上代码:

# -*- coding: utf-8 -*-"""Created on Tue Jul 14 15:25:44 2020
@author: HP"""
#合并一个文件夹下的多个txt文件#coding=utf-8import osimport pandas as pd#获取目标文件夹的路径filedir = r'C:xxxxxx' #获取当前文件夹中的文件名称列表filenames=os.listdir(filedir) i=0data = pd.read_csv(r'C:xxxxxxxxx.txt',sep = 't')col = list(data)data = pd.DataFrame(columns=col)
#先遍历文件名for filename in filenames: i+=1 print(i) if i>0: filepath = filedir+'\'+filename print(filepath) #遍历单个文件,读取行数 # datai = pd.read_csv(filepath, sep='t', dtype=str) datai = pd.read_csv(filepath, sep='t', converters={'item': str}) data = data.append(datai) ''' for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'): # print(str(line)) f.writelines(line) # f.write('n') '''#关闭文件# f.close()
data.to_excel('XXX.xlsx', index=False)

来解释一下代码:

filedir = r’C:xxxxxx’ 我把所有的文件放在这个文件夹里,注意是一个绝对的路径

filenames=os.listdir(filedir) 获取这个文件夹里面所有的文件列表

data = pd.read_csv(r'D:xxxxxx.txt',sep = 't')col = list(data)data = pd.DataFrame(columns=col)

这里几行代码呢,目的是创建一个空的dataframe,这个空的dataframe的列就是上面那个文件夹里面某个文件的列名

后面就是写循环,往列表里面添加数据,然后将列表转换为excel文件了。

        '''        for line in open(filepath, 'r', encoding='utf-8-sig', errors='ignore'):            # print(str(line))            f.writelines(line)            # f.write('n')        '''

博主注释起来的这块代码,是写入txt的方式,看需求,当然,这里f没定义,可以在循环外面定义一下f,比如:

# f=open('result.txt','w')

将数据写入数据库

直接上代码了再解释吧

# -*- coding: utf-8 -*-"""Created on Tue Jul 14 17:34:23 2020
@author: HP"""
"""功能:将Excel数据导入到MySQL数据库"""import xlrdimport MySQLdbimport pandas as pd
d = pd.read_csv('xxx.txt',sep = 't')col = list(d)cols = ','.join(col)
# Open the workbook and define the worksheetbook = xlrd.open_workbook("XXX.xlsx") # excel文件名# book = xlrd.open_workbook("1.xlsx")sheet = book.sheet_by_index(0) # excel文件中的sheet名
# 建立一个MySQL连接database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8")
# 获得游标对象, 用于逐行遍历数据库数据cursor = database.cursor()
# 创建插入SQL语句# query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, ss)
# 创建一个for循环迭代读取xls文件每行数据的, 从第二行开始是要跳过标题
data_list = []for r in range(1, sheet.nrows): row_list = [] for t in range(len(col)): value_rt = sheet.cell(r,t).value type_rt = sheet.cell(r,t).ctype if type_rt == 2: value_rt = str(int(value_rt)) row_list.append(value_rt) data_list.append(row_list) # values = ','.join(data_list) # query = """INSERT INTO acd_file (%s) VALUES (%s)""" %(cols, s) # 执行sql语句 # cursor.execute(query, values)
val = ''for i in range(0, len(col)): val = val + '%s,' result =cursor.executemany("insert into xxx (%s) values(" %(cols) + val[:-1] + ")", data_list)print(result)

# 关闭游标cursor.close()
# 提交database.commit()
# 关闭数据库连接database.close()
# 打印结果print("")print("Done! ")print("")columns = str(sheet.ncols)rows = str(sheet.nrows)print("我刚导入了 ", columns, " 列 and ", rows, " 行数据到MySQL!")

真的挺复杂,也不知道博主能不能讲明白,我挑一些自己认为比较晦涩的代码来解释吧

基础数据导入

d = pd.read_csv('xxx.txt',sep = 't')col = list(d)cols = ','.join(col)

这里主要是把文件的列名变成一串字符串,join函数可以将列表转化为字符串,分割符号是’,’这个逗号

# Open the workbook and define the worksheetbook = xlrd.open_workbook("XXX.xlsx") # excel文件名# book = xlrd.open_workbook("1.xlsx")sheet = book.sheet_by_index(0) # excel文件中的sheet名

把上面合并的那个excel文件读进来,并且获取这个excel的sheet名,从上面批量合并数据文件这一步来看,博主其实只有一个sheet。

链接数据库

database = MySQLdb.connect(host="xxxxxxx", user="xxxx", passwd="xxxxxx", db="xxxxx", charset="utf8")

这行代码非常关键,关系到你能否把数据写到数据库里去,connect函数就是用来链接数据库的,里面的参数我来解释一下:

数据处理

data_list = []for r in range(1, sheet.nrows):    row_list = []    for t in range(len(col)):        value_rt = sheet.cell(r,t).value        type_rt = sheet.cell(r,t).ctype        if type_rt == 2:            value_rt = str(int(value_rt))                row_list.append(value_rt)    data_list.append(row_list)

这段代码的目的是将表中所有的数据全部取出来,并写入到data_list这个列表中

type_rt = sheet.cell(r,t).ctype用于获取每个字符的类型

ctype : 0 empty,1 string, 2 number, 3 date, 4 boolean, 5 error

我将所有数字型的数据全部转换为字符串,便于完整的写入数据,至于到哪里去把字符串修改回来,这个可以到Navicat里面去设置。当然,这不是最佳的数据处理方式,只是比较适合博主的数据而已

写入数据库

val = ''for i in range(0, len(col)):    val = val + '%s,'    result =cursor.executemany("insert into xxx (%s) values("  %(cols) + val[:-1] + ")", data_list)

变量val用来生成一串’%s’这个玩意儿,val[:-1]用切片切掉最后一个逗号,其实这里有更简单的写法,像前面一样用join函数

s =['%s']*len(col)ss = ','.join(s)

这里的ss和val[:-1]是等价的。

executemany是批量写入函数,“insert into xxx (%s) values(” %(cols) + val[:-1] + “)”中的xxx是数据表。还有另外一种写法,不用批量导入,而是用execute函数,每读一行,就写一行,写在循环里面,但是当时老是报错,我就没继续下去了。

后面就是常规的数据库操作了

当然,整个过程不断的报错,比如报错说我的字符串长度太长了,等等,要在数据库里面修改一些参数,可能每个人遇到的问题不一样,遇到了就去网上搜索教程,基本都能解决。

至此完成了数据的写入,接下来看看怎么在Python里查询数据

Python操作数据库查询数据

还是先上代码

# -*- coding: utf-8 -*-"""Created on Thu Jul 16 09:33:42 2020
@author: HP"""
import MySQLdbimport pandas as pd
conn = MySQLdb.connect( host="xxxx", user="xxxx", passwd="xxxxx", db="xxxxx", charset="utf8")
cur = conn.cursor()query = """ select x1, x2, x3, x4 from table1 where x1 >= 1 and x1 < 100 """ cur.execute(query)result = cur.fetchall()df_result = pd.DataFrame(list(result), columns=['x1','x2','x3','x4'])

第一步,链接数据库并登陆

第二步,写查询语句,select from where基本查询语法

第三步,执行查询语句

顺利出结果

相对来说,要简单的多

写在后面

从博主决定搭建数据库到最后打通数据库,总体来说,感觉很费劲,也走了很多弯路,给我的感觉就是后端的东西要比前端复杂一点,当然,博主水平有限,也就目前的认知水平这样,前端的东西其实也很复杂,只是我个人接触的相对多一点而已。

不过还是很开心的,毕竟又get了个新技能。