关于MySQL5.7几天的总结(简单分区json类型)

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

关于MySQL5.7⼏天的总结(简单分区json类型)⼀开始,⽼板让调整⼀下 innodb_buffer_pool_size ⼤⼩,因为这台机器内存⼤。

看了下内存,16G,再SQL下⾯命令,得到结果是4G。

SELECT@@innodb_buffer_pool_size;
果断vim /etc/f
修改了 innodb_buffer_pool_size = 8G # (adjust value here, 50%-70% of total RAM)
括号中内容是官⽅给的建议。

然后再执⾏下⾯的命令,调整到8G,这样不⽤重启mysql服务,即调整完毕。

SET GLOBAL innodb_buffer_pool_size=8589934592; -- 8G
其它的⼏个查询:
-- show status like 'Threads%'; -- 连接数
-- show processlist; -- 查看连接,可以知道当前有哪些IP连接
-- select * from information_schema.processlist order by id; -- 查看连接
MySQL 5.7 安装
最近才知道, mysql从5.7版本开始,增加了新的字段类型: json
所以在centos6.5上装了个5.7版本作为平时测试⽤.
#----------------------------------------------------------------------#
# 修改yum源为aliyun
# 先备份:
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
# 下载配置⽂件注意 centos版本
wget -O /etc/yum.repos.d/CentOS-Base.repo /repo/Centos-6.repo
yum makecache # ⽣成缓存
# yum -y update # 升级所有包同时也升级软件和系统内核不是必要
#----------------------------------------------------------------------#
### --------------------------------------------------------------------###
# 安装 mysql 5.7版本不同于低版本的安装,稍微复杂。

yum list installed | grep mysql # 检测系统是否⾃带安装mysql
yum -y remove mysql-libs.x86_64 # 删除系统⾃带的mysql及其依赖
# 给CentOS添加rpm源,并且选择较新的源
wget /get/mysql-community-release-el6-5.noarch.rpm --no-check-certificate
yum install mysql-community-release-el6-5.noarch.rpm
vim /etc/yum.repos.d/mysql-community.repo
# 编辑此⽂件,将MySQL 5.7下的 enabled=1低版本的改成 enabled=0
yum repolist enabled | grep mysql # 检查mysql57的源是否开启
# 安装mysql 服务器
yum install mysql-community-server
cat /var/log/mysqld.log | grep"password" # 找到临时密码
# 如果没有找到密码,则可能使⽤之前本机旧版本的密码。

service mysqld start
chkconfig mysqld on
# mysql_secure_installation # 设置安全选项可以不做
mysql -uroot -p # 输⼊临时密码
SET PASSWORD = PASSWORD('newpassword'); # 设置新密码
USE mysql;
-- update user set password=PASSWORD('newpassword') where user='root'; -- 5.7之后已经没有password字段
grant all PRIVILEGES on *.* to 'root'@'%' IDENTIFIED BY 'newpassword' with grant option;
FLUSH PRIVILEGES; --更改root密码,授权远程连接,⽣效。

如果错误:ERROR 1819 (HY000): Your password does not satisfy the current policy requirements
则可以修改密码安全规则,允许简单密码:
set global validate_password_policy=0;
set global validate_password_length=1;
# 如果远程连接出错:'performance_schema.session_variables' doesn't exist # 则操作以下命令并重启服务后,再连接
mysql_upgrade -u root -p --force service mysqld restart
# 如果要修改数据库实际存储位置:则⼀定要在 /etc/f中指明以下两处路径
datadir=/db/mysql
socket=/db/mysql/mysql.sock
CentOS 7,如果远程连不上,可能需要防⽕墙开启 3306端⼝。

firewall-cmd --permanent --add-port=3306/tcp # 添加3306
systemctl restart firewalld.service # 重启服务
firewall-cmd --list-all# 查看结果
此外,f ⽂件中最好在⼀开始就加 sql_mode 和 innodb_file_per_table=1
重要:innodb_file_per_table=1 是使⽤独⽴表空间,从⽽避免共享表空间的 ibdata1⽂件过⼤问题,避免后续体积太⼤时引起⿇烦。

[mysqld]
sql_mode='ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION' innodb_file_per_table=1 # innodb 使⽤独⽴的表空间, 避免datadir下 ibdata1 单⽂件过⼤
命令⾏操作备份与恢复,如果能熟练使⽤,也是⽅便实⽤的功能。

mysqldump -uroot -p123456 -q --all-databases > /opt/all.sql # 备份所有库
mysqldump -uroot -p123456 --databases db1 db2 db3 --add-drop-table |gzip > dbs.gz # 备份指定库
mysql -uroot -p123456 < /opt/all.sql # 从⽂件恢复
以下⽰例是⼀个已经使⽤了很久的mariadb,未解决之前ibdata1单⽂件16G⼤⼩,解决后,变成每表⼀个ibd⽂件,合计11.6G⼤⼩。

# 1. 备份全部库
mysqldump -uroot -p123456 --all-databases --add-drop-table > /opt/all.sql
# 2. vim /etc/f --[mysqld]下增加⼀⾏:
innodb_file_per_table=1
# 3. 重启服务验证开启 innodb_file_per_table
systemctl restart mariadb
mysql -uroot -p123456
show variables like'%per_table%'; -- 得到 ON 即开启成功
# 4. 删除 ibdata1
cd /var/lib/mysql
rm -rf ib_logfile*
rm -rf ibdata1
# 5. 重启服务并导⼊数据
systemctl restart mariadb
mysql -uroot -p123456 < /opt/all.sql
# 完成后还可以再重启⼀次服务,并检查数据是否正常。

# MariaDB是MySQL的继续免费开源的分⽀。

⽽mysql被oracle收购后已经商业化。

所以,CentOS7,⼤家都使⽤ MariaDB
简单的 range 分区
分区的范围根据真实数据表来定,不必范围过⼩,因为变成分区表会增加数据⽂件⼤⼩,增加磁盘占⽤。

必要时,也可以删除分区重建分区。

-- 检查分区是否开启找到 partition 是否 ACTIVE
-- SELECT PLUGIN_NAME AS NAME, PLUGIN_VERSION AS VERSION, PLUGIN_STATUS AS STATUS FROM INFORMATION_SCHEMA.PLUGINS WHERE PLUGIN_TYPE='STORAGE ENGINE';
-- 分区名和⾏数
-- SELECT PARTITION_NAME,TABLE_ROWS FROM INFORMATION_SCHEMA.PARTITIONS WHERE TABLE_NAME = 'access_log';
-- 检查分区状态
-- ALTER TABLE history_hourly CHECK PARTITION all;
-- 查看分区信息
-- select * from information_schema.partitions where TABLE_SCHEMA='mon_db' and table_name ='history'
-- select * from information_schema.partitions where TABLE_SCHEMA='mon_db' and table_name ='alarm'
-- 修改普通表为分区表 ( range 按⽉分区,分区条件要含盖已存在的所有数据 )
-- ALTER TABLE history_10min PARTITION by RANGE(to_days(time)) (
-- PARTITION p201903 VALUES LESS THAN (to_days('20190401')),
-- PARTITION p201904 VALUES LESS THAN (to_days('20190501')),
-- PARTITION p201905 VALUES LESS THAN (to_days('20190601')),
-- PARTITION p201906 VALUES LESS THAN (to_days('20190701')),
-- PARTITION p201907 VALUES LESS THAN (to_days('20190801'))
-- )
-- 为原有分区表追加分区 ( 注意LESS THAN()中的类型 )
-- ALTER TABLE history_hourly ADD PARTITION (PARTITION p201907 VALUES LESS THAN (to_days('20190801'))) -- PARTITION_EXPRESSION 是 to_days(time)
-- ALTER TABLE history_minutely ADD PARTITION (PARTITION p201905 VALUES LESS THAN ('20190601')) -- PARTITION_EXPRESSION 是 'time'
-- 删除表的所有分区: #不会丢失数据,变成普通表
-- ALTER TABLE history_10min REMOVE PARTITIONING
-- 删除指定分区( 所在分区数据也彻底删除 )
-- alter table history_10min drop partition p201901;
-- alter table history_daily drop partition p201908;
例:⽤node.js脚本结合 crontab ,每⽉1号1点追加表分区
var mysql = require('mysql');
var moment = require('moment');
var config = require('./config');
var mysqlClient = mysql.createConnection(config.mysql);
mysqlClient.connect(function(error) { if (error) return; });
var partition_name = "p" + moment().add(1, 'M').format("YYYYMM");
var partition_date = moment().add(2, 'M').format("YYYYMM01");
var sql = "ALTER TABLE history_minutely ADD PARTITION (PARTITION " + partition_name + " VALUES LESS THAN ('" + partition_date + "'))";
mysqlClient.query(sql, function (error, results, fields) { if (error) {console.log("history_minutely:", error);} });
sql = "ALTER TABLE history_10min ADD PARTITION (PARTITION " + partition_name + " VALUES LESS THAN (TO_DAYS('" + partition_date + "')))";
mysqlClient.query(sql, function (error, results, fields) { if (error) {console.log("history_10min:", error);} });
sql = "ALTER TABLE history_hourly ADD PARTITION (PARTITION " + partition_name + " VALUES LESS THAN (TO_DAYS('" + partition_date + "')))";
mysqlClient.query(sql, function (error, results, fields) { if (error) {console.log("history_hourly:", error);} });
sql = "ALTER TABLE history_daily ADD PARTITION (PARTITION " + partition_name + " VALUES LESS THAN (TO_DAYS('" + partition_date + "')))";
mysqlClient.query(sql, function (error, results, fields) { if (error) {console.log("history_daily:", error);} });
mysqlClient.end();
crontab:
011 * * /opt/node/bin/node /opt/apps/partition/per_month.js >> /opt/logs/per_month.log
数据表的 JSON 字段
设计表的时候, 字段类型直接选json 就像平常选varchar⼀样.
插⼊数据的时候, 需要转成JSON_OBJECT 。

⽽JSON_ARRAY ⽤来将多个值存成数组。

如下⾯的⽰例:
SELECT mac, JSON_OBJECT('e1',JSON_ARRAY (round( AVG( value ->>'$.e1' ), 3 ),MIN( value ->>'$.e1' ),MAX( value ->>'$.e1' )),
'e2',JSON_ARRAY (round( AVG( value ->>'$.e2' ), 3 ),MIN( value ->>'$.e2' ),MAX( value ->>'$.e2'))) as json
FROM history
WHERE
mac ='522099e6660004' and time between '2018-08-07 00:00:00' AND '2018-08-08 00:00:00'
GROUP BY
mac
value是表中的字段名,e1、e2是此字段中json的key, AVG/MIN/MAX不⽤多说了,⼤家都知道。

此句的作⽤是以某mac字段和时间为限定,分别取出e1的
avg/min/max,然后赋给⼀个新的数组 “e1",取出e2的avg/min/max,然后赋给⼀个新的数组 “e2",然后组成json对象,得到下⾯的结果。

{"e1": [25.568, 12, 121], "e2": [28.631, 12, 182]}
取值的时候,取json⾥⾯的键,可以直接⽤SQL语句,像下⾯这么写:
value -> '$.e1' 表⽰取出json型字段名为value中的 e1 健的值. 即使取出的数字,也带有双引号
value ->> '$.e1' 则取出数字不带有双引号, 但此时仍然不是数值类型. JSON_UNQUOTE(json_extract(json,'$.attr')) 也可以去掉引号.
value ->> '$.e1'+0 则会强制将取出的字符型数字转为数值类型. CAST('123' AS SIGNED) 或 CONVERT('123',SIGNED)的函数也⾏,但是执⾏速度没有直接 +0 快. (必须看起来的确是数字)
更新json字段时,使⽤JSON_REPLACE(字段,原key, 新值)函数。

-- 将json字段中key为e31的数组,第0个和第1个交换,如果第0⼩于第1的话:
update `history_daily` set json = JSON_REPLACE(json,"$.e31[0]",round(json ->>"$.e31[1]",2), "$.e31[1]",round(json ->>"$.e31[0]",2)) where json ->> "$.e31[0]"*1< json ->> "$.e31[1]" *1;
-- 将这个数组中第0位的⼩数⼤于3位的,只保留2位
update `history_daily` set json = JSON_REPLACE(json,"$.e31[0]",round(json ->>"$.e31[0]",2)) where LOCATE('.', json ->> "$.e31[0]") >0and LENGTH(SUBSTRING_INDEX(json ->> "$.e31[0]",'.' ,-1)) >3;
python2.7 脚本,测试mysql
如果跑py脚本,没有安装环境,则依次执⾏以下命令。

yum install gcc gcc-c++ -y
yum -y install mysql-devel
yum install python-devel
pip install --upgrade pip
pip install MySQL-python -i /simple --trusted-host
以下脚本运⾏在python2.7 (python3以上执⾏命令 pip install mysql 也可以得到 MySQLdb 库,我没有测试)
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import MySQLdb, time, datetime, json
print(datetime.datetime.now())
HOST = 'node-6'
db = MySQLdb.connect(HOST, "root", "123456", "monitor_db")
cursor = db.cursor()
def get_date(str_date):
t = time.strptime(str_date, '%Y-%m-%d')
y, m, d = t[0:3]
return datetime.datetime(y, m, d)
def insert_device_data(cursor, data):
sql = "INSERT INTO history_daily (mac, time, json) VALUES (%s, %s, %s)"
# print sql
cursor.executemany(sql, data)
def fetch_device_minutely_data(cursor, start, end, mac):
try:
sql = '''
SELECT
mac,
CASE version %s
END json
FROM
history
WHERE
mac ='%s'
and time between '%s' AND '%s'
GROUP BY
mac,
version
''' % (jsonkey, mac, start, end)
# print(sql) # 壮观的 case ... when
cursor.execute(sql)
data = cursor.fetchall()
if data:
for d in data:
mac = d[0]
json = d[1]
device_data = []
device_data.append((mac, start, json))
insert_device_data(cursor, tuple(device_data))
except MySQLdb.OperationalError, e:
print(e)
time.sleep(10)
db = MySQLdb.connect(HOST, "root", "123456", "monitor_db")
cursor = db.cursor()
fetch_device_minutely_data(cursor, start, end, mac)
# 设备表 id , version
version_sql = 'SELECT id, version FROM device_version GROUP BY id, version'
cursor.execute(version_sql)
versions = cursor.fetchall() # version 从2到10
jsonkey = ""
if versions:
for version in versions:
print (version[0])
sensor_sql = '''
SELECT s.sensor_key FROM device_version_sensor dvs,sensor s WHERE dvs.sensor_id = s.id AND dvs.device_version_id = '%d' ''' % (version[0]) # e1 e2 e3 ...
cursor.execute(sensor_sql)
keys = cursor.fetchall()
if keys:
jsonkey += "WHEN " + str(int(version[1])) + " THEN JSON_OBJECT("
for i, sensorKey in enumerate(keys):
key = sensorKey[0]
jsonkey += "'" + str(key) + "',JSON_ARRAY (round( AVG( value ->> '$." + str(
key) + "'+0 ), 3 ),MIN( value ->> '$." + str(
key) + "'+0 ), MAX( value ->> '$." + str(key) + "'+0 ))"
if i != len(keys) - 1:
jsonkey += ","
jsonkey += ")"
# mac 列表
sql_mac = 'SELECT DISTINCT mac FROM `history` where mac is not NULL';
cursor.execute(sql_mac)
mac_tuple = cursor.fetchall() # version 从2到10
start_date = get_date((datetime.datetime.now() + datetime.timedelta(days=-6)).strftime("%Y-%m-%d"))
end_date = get_date((datetime.datetime.now()).strftime("%Y-%m-%d"))
days = (end_date - start_date).days
for i in range(days):
start_day = start_date + datetime.timedelta(days=i)
end_day = start_date + datetime.timedelta(days=i + 1)
for mac in mac_tuple:
# print (mac[0])
fetch_device_minutely_data(cursor, start_day, end_day, mac[0])
mit()
db.close()
print(datetime.datetime.now())
MySQL ⼀个简单的定时任务
SQL语句创建简单的定时任务,每天凌晨执⾏前⼀天的数据汇总,求取表中每个城市的最⼤值。

对应地将json中的quality值由汉字转换为数字,先存⼊临时表,最后求取个最⼤值存放到 quality_daily 表中。

如果SQL搞定没问题,就没必要⿇烦python了。

定义:
begin
-- 取出所有 quality
INSERT INTO quality_tmp ( time, quality, city_code ) SELECT
DATE_FORMAT( time, "%Y-%m-%d" ) AS time,
IF
(
aqi_json ->> "$.quality" = "优",
1,
IF
(
aqi_json ->> "$.quality" = "良",
2,
IF
(
aqi_json ->> "$.quality" = "轻度污染",
3,
IF
( aqi_json ->> "$.quality" = "中度污染",
4,
IF
( aqi_json ->> "$.quality" = "重度污染",
5,
IF(aqi_json ->> "$.quality" = "严重污染", 6, 0)) )
)
)
) AS quality,
city_code
FROM
`hangzhou_aqi`
WHERE
time >= date_sub( curdate( ), INTERVAL 1DAY )
AND time < curdate( );
-- 求出最⼤值
INSERT into quality_daily(time,quality,city_code)
SELECT time, max(quality), city_code from quality_tmp GROUP BY time,city_code ;
-- 清空临时表
delete from quality_tmp;
end
设定计划为每⼀天。

别忘了开启计划任务功能:
-- show variables like '%sche%';
set global event_scheduler =1 ;。

相关文档
最新文档