某项目一个11g的老库集群3节点已运行多年,目前有一个adg备库用于读写分离。由于使用的老存储已无法扩容,主磁盘组空间捉襟见肘,不得已借用多次FRA的空间用于扩容表空间。 为临时解决空间不足的现状,临时申请1台物理主机新构建adg用于替换原有adg备库,释放存储给主集群。 新申请的主机测试不充分,后期发现与主集群之间带宽仅有50-60MB/s,为后期实施带来了困难,同时新主机未能提供同版本的CentOS6.5,而是7.4,也为后续实施造成了麻烦,尽管解决掉了问题,但是不得不说,这些时间浪费成本也不低。 本次采用du…

2021年5月27日 0条评论 1205点热度 0人点赞 liking 阅读全文

■■sysbench最新源码编译安装 wget https://github.com/akopytov/sysbench/archive/master.zip sysbench 1.1.0 (using bundled LuaJIT 2.1.0-beta3) ■根据sysbench文档,需如下依赖包 yum install make automake libtool pkgconfig libaio-devel yum install mariadb-devel openssl-devel Error: Packa…

2021年3月18日 0条评论 1210点热度 0人点赞 liking 阅读全文

【目前网络上还没有比较完善的PXC最新版本8.0的中文部署参考,结合项目需要,本人完全基于官方文档,做了一次全新尝试。本文基于PXC最新版本8.0.21,详细记录了在CentOS7的部署过程,值得参考】 “Percona XtraDB Cluster是MySQL的数据库集群解决方案。它确保高可用性,防止停机和数据丢失,并为不断增长的环境提供线性可伸缩性。”---来自官网 PXC近几年广为应用的应该是5.6、5.7版本,笔者于2018年在某项目部署的版本就是5.7,也留下了深刻印象。 最新的版本是8.0,相比较5.7…

2021年3月8日 0条评论 3870点热度 9人点赞 liking 阅读全文

新搭建的一套PXC集群,采用了Percona的最新版本,如下所示: [root@mysqldb2:0 /mysql/soft/bak]# mysql --version mysql Ver 8.0.21-12.1 for Linux on x86_64 (Percona XtraDB Cluster (GPL), Release rel12, Revision 4d973e2, WSREP version 26.4.3) 需要修改系统配置为大小写不敏感,因此需要修改配置参数lower_case_table_name…

2021年3月8日 0条评论 1347点热度 0人点赞 liking 阅读全文

19.9 ADG环境,查看Flash Recovery Area Usage发现FLASHBACK LOG占用了90%多的FRA空间,而ARCHIVED LOG仅占用不到10%,这还了得,这是一个繁忙的生产环境,一般是不需要长时间的Flash Back的,得想办法清理一下,以免影响归档。【注:其实是不会影响归档的,具体的实践观察见后】 如下是清理前的占用情况: FILE_TYPE PERCENT_SPACE_USED PERCENT_SPACE_RECLAIMABLE NUMBER_OF_FILES CON_ID …

2021年2月2日 1条评论 2021点热度 0人点赞 liking 阅读全文

在CentOS7.6下配置oracle 19.9时,如果没有显式设置HugePages为SGA所需的合适的值大小,而是设置了较大的值,尽管有时可以分配一些HugePages,但是一般不会是所设置的数目,结论是,必须显式设置合适的值。 如下关于wydb两个实例的alertlog输出,最后一次输出是正确设置并重启之后的: ---wydb1 2021-01-14T15:38:39.837037+08:00 PAGESIZE AVAILABLE_PAGES EXPECTED_PAGES ALLOCATED_PAGES ER…

2021年1月28日 0条评论 1232点热度 0人点赞 liking 阅读全文

关闭网络心跳ip后,此时磁盘心跳正常,数据库主集群的2个节点发生脑裂,导致数据库重新配置。 重新配置的基本原则:节点数多的子集群存活,如果子集群包含的节点数相同,那么包含最小编号节点的子集群存活。 所以2节点集群,如果停掉所有的心跳ip后,node1存活,继续对外提供服务。 实际日志顺序如下: 1、node2的数据库实例被强行终止 2、node1确认检测到node2实例终止后,自我调整后继续提供数据库服务 ■■停掉所有的心跳ip ■■node2 日志 2021-01-20T16:20:15.835897+08:00…

2021年1月20日 0条评论 1818点热度 0人点赞 liking 阅读全文

前期19c上出现的这个问题,后期在操作ASM磁盘时,再次复发: ORA-15137: The ASM cluster is in rolling patch state 此时确认两个节点的patch level完全一致,如下: [root@wydb01:0 ~]$ crsctl query crs softwarepatch wydb01 Oracle Clusterware patch level on node wydb01 is [376483838]. [root@wydb01:0 ~]$ crsctl q…

2021年1月5日 0条评论 1231点热度 0人点赞 liking 阅读全文

■■rebuild node2 within GI/RAC 由于种种原因已有集群的节点出现异常,无法修复,可以采用这个办法一步到位重建节点,大致步骤如下,详见官方文档。 ■dbca remove instance2 ■gridSetup.sh remove node2 ■gridSetup.sh add node2 ■dbca add instance2 正常的话,这个操作耗时2个小时左右。

2020年12月20日 0条评论 1228点热度 0人点赞 liking 阅读全文

19c用opatchauto打19.9补丁后无法操作ASM,操作磁盘组时,提示错误: ORA-15137: The ASM cluster is in rolling patch state 以下为一次耗时几天的操作记录,留作参考。 ■grid/oracle用户lspatches,完全一致 [grid@wydb01:1 ~]$ $ORACLE_HOME/OPatch/opatch lspatches 31780966;TOMCAT RELEASE UPDATE 19.0.0.0.0 (31780966) 31773…

2020年12月19日 0条评论 1616点热度 0人点赞 liking 阅读全文
123458