分类: 编程笔记

  • 韩国服务器虚拟化技术有哪些_读书小站

    本文收集自网络,侵删!

    韩国服务器虚拟化技术主要有以下几种:

    1、KVM虚拟化技术

    KVM是一种基于linux内核的虚拟化技术,能够将物理服务器划分为多个虚拟机,每个虚拟机都可以运行独立的操作系统和应用程序。KVM虚拟化技术具有性能高、安全稳定等特点,被广泛应用于韩国的云计算和虚拟主机服务。

    2、VMware虚拟化技术

    VMware是一种商业虚拟化技术,能够将物理服务器划分为多个虚拟机,每个虚拟机都可以运行独立的操作系统和应用程序。VMware虚拟化技术具有性能高、安全稳定等特点,被广泛应用于韩国的企业IT服务中。

    3、Xen虚拟化技术

    Xen是一种开源虚拟化技术,能够将物理服务器划分为多个虚拟机,每个虚拟机都可以运行独立的操作系统和应用程序。Xen虚拟化技术具有性能高、安全稳定等特点,被广泛应用于韩国的云计算和虚拟主机服务。

    4、Docker容器虚拟化技术

    Docker是一种轻量级容器虚拟化技术,能够将应用程序及其依赖项打包成容器,以便在不同的环境中运行。Docker容器虚拟化技术具有快速部署、高可移植性等特点,被广泛应用于韩国的开发测试环境中。

  • 韩国虚拟云主机试用要注意哪些事项_读书小站

    本文收集自网络,侵删!

    韩国虚拟云主机试用要注意:

    1、确认云主机的配置和性能是否符合需求,包括 CPU、内存、磁盘空间等。

    2、确认云主机的操作系统是否支持需要的软件和应用程序。

    3、确认云主机的网络连接速度和稳定性是否满足需求。

    4、确认云主机的安全性措施是否足够,如防火墙、入侵检测等。

    5、确认云主机的备份和恢复机制是否可靠,以保证数据安全。

    6、确认云主机的技术支持是否及时、专业,是否提供24小时在线支持。

    7、在试用过程中,可以进行性能测试、安全测试等,以评估云主机的实际表现。

    8、在试用结束后,及时备份重要数据,以免数据丢失。

  • 国内免实名云服务器有哪些优缺点_读书小站

    本文收集自网络,侵删!

    国内免实名云服务器的优点:

    1、可以快速上线网站,不需要等待备案审核时间。

    2、无需担心备案号的限制,可以自由地运营网站。

    3、可以方便地进行跨省、跨国等业务拓展。

    国内免实名云服务器的缺点:

    1、无备案的网站可能会被视为非法网站,存在被封停的风险。

    2、在某些情况下,没有备案会影响网站的SEO排名和流量。

    3、在某些行业或业务中,备案是必须的,无法避免。

    需要注意的是,根据中国相关法律法规和政策,网站备案是必须的。因此,如果您需要在中国境内运营网站,建议您按照相关法规进行备案。

  • 韩国高防御服务器租用能防御哪些攻击_读书小站

    本文收集自网络,侵删!

    韩国高防御服务器租用可以防御以下类型的攻击:

    1、DDoS攻击

    韩国高防御服务器租用可以提供高效的DDoS攻击防护功能,可以防御各种类型的DDoS攻击,如UDP Flood、tcp Flood、Http Flood等。

    2、SYN Flood攻击

    韩国高防御服务器租用可以防御SYN Flood攻击,可以提供TCP SYN Cookie等技术来防御SYN Flood攻击。

    3、ICMP Flood攻击

    韩国高防御服务器租用可以防御ICMP Flood攻击,可以提供ICMP Flood防护功能来防御此类攻击。

    4、DNS攻击

    韩国高防御服务器租用可以提供DNS攻击防护功能,可以防御DNS Amplification攻击、DNS Reflection攻击等。

    5、HTTP请求攻击

    韩国高防御服务器租用可以提供HTTP请求攻击防护功能,可以防御各种类型的HTTP请求攻击,如Slowloris攻击、Apache Killer攻击等。

    6、网络蠕虫攻击

    韩国高防御服务器租用可以提供网络蠕虫攻击防护功能,可以防御各种类型的网络蠕虫攻击,如Code Red、Nimda等。

    综上所述,韩国高防御服务器租用可以防御各种类型的攻击,可以提供高效的DDoS攻击防护功能和其他各种类型的攻击防护功能,可以保护服务器的安全和稳定。

  • 国内免备案云主机怎么租用更便宜_读书小站

    本文收集自网络,侵删!

    租用国内免备案云主机更便宜,可以从以下几个方面入手:

    1、选择优惠方案

    很多服务商会提供一些优惠活动,比如新用户注册、续费折扣等等,可以通过这些优惠活动来降低云主机租用的成本。

    2、选择长期使用

    一般来说,长期租用云主机的价格会比短期租用更便宜,可以选择一些长期租用方案来降低成本。

    3、比较不同服务商的价格

    不同的服务商的云主机价格可能会有所不同,可以通过比较不同服务商的价格来选择价格更为实惠的服务商。

    4、选择较低配置的云主机

    根据自身的需求选择较低配置的云主机,可以降低租用成本。

    5、选择较少流量的云主机

    根据自身网站的流量情况选择较少流量的云主机,可以避免浪费流量,降低租用成本。

    6、选择合适的地理位置

    根据自身用户的地理位置选择合适的数据中心,可以提高网站访问速度和稳定性。

    7、选择合适的操作系统

    选择较为流行的操作系统,可以降低维护成本,同时也可以选择免费开源的操作系统,如linux系统,来降低成本。

  • MySQL + keepalived (CentOS7)高可用方案

    本文主要介绍了利用 keepalived 实现 MySQL 数据库的高可用。

    由于要做高可用,那么自然就需要 MySQL 双主模式,又因为数据库的特殊性,我们需要特别注意主备间的切换(不是想切就切),这个时候就需要 keepalived 非抢占模式。所以我们需要做:

    • 安装 MySQL 双主(被动)模式,实现数据的冗余备份
    • 安装 keepalived nopreempt 模式,实现 MySQL 数据库的故障切换

    1 环境准备

    host1host2 部署高可用,host3 上部署 MySQL 客户端用于测试,详细信息如下:

    hostname ip OS install
    host1 192.168.1.51 CentOS7.0 MySQL-server-5.5.45 / keepalived
    host2 192.168.1.52 CentOS7.0 MySQL-server-5.5.45 / keepalived
    host3 192.168.1.53 CentOS7.0 MySQL-client-5.5.45

    2 安装 MySQL 双主结构

    MySQL 双主顾名思义就是互为主备,需要特别注意一些配置。

    • 下面是 host1 的配置:
    • log-bin = bin
      relay-log = relay-bin
      server-id = 1
      skip-slave-start = 1
      auto_increment_offset = 1
      auto_increment_increment = 10
      # log_slave_updates = 1
    • 下面是 host2 的配置:
    • log-bin = bin
      relay-log = relay-bin
      server-id = 2
      skip-slave-start = 1
      auto_increment_offset = 2
      auto_increment_increment = 10
      # log_slave_updates = 1
    • 注意:
    log-bin 是一定要开启的,主要用于主备之间的同步
    relay-log 重命名以下也有必要,这个参数可以不配置
    两个实例的 server-id 必须配置不一样
    skip-slave-start 是为了数据一致性
    auto_increment_offset 是自增字段从哪开始
    auto_increment_increment 是自增字段增加的幅度,配置成10是为了容易预估表的行数
    如果你要给这两个实例再加 slave,那么你就需要配置 log_slave_updates 参数
    • 按上面的配置启动 host1host2 上的 MySQL 实例
    • 设置主主模式
    ---- 在 host1 上执行:
    mysql> GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'replication'@'192.168.1.52' IDENTIFIED BY PASSWORD 'helloworld';
    ---- 在 host2 上执行:
    mysql> GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'replication'@'192.168.1.51' IDENTIFIED BY PASSWORD 'helloworld';
    ---- 在 host1 上执行:
    mysql> start slave;
    ---- 在 host1 上执行:
    mysql> start slave;
    • note: 如果报如下错误:
    ERROR 1372 (HY000): Password hash should be a 41-digit hexadecimal number

    只需要按照如下处理即可:

    mysql> select password('helloworld');
    +-------------------------------------------+
    | password('helloworld')                    |
    +-------------------------------------------+
    | *D35DB127DB631E6E27C6B75E8D376B04F64FAF83 |
    +-------------------------------------------+
    1 row in set (0.00 sec)
    mysql> GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'replication'@'192.168.10.51' IDENTIFIED BY PASSWORD '*D35DB127DB631E6E27C6B75E8D376B04F64FAF83';
    mysql> flush privileges;

    3 部署高可用检测脚本

    # cat /sbin/ha_check.sh
    #!/bin/bash
    
    counter=$(ps -C mysqld --no-heading|wc -l)
    if [ "${counter}" = "0" ]; then
        service keepalived stop
    fi
    
    # chmod +x /sbin/ha_check.sh

    4 部署 keepalived 非抢占模式

    • 安装 keepalived
    # yum install keepalived
    • 修改配置文件
    • ###### host1 配置文件
      ! Configuration File for keepalived
      global_defs {
              notification_email {
                  cjfeii@126.com
              }
              notification_email_from ha@126.com
              smtp_server smtp.126.com
              smtp_connect_timeout 30
              router_id host1
      }
      vrrp_sync_group hw_vsg {
              group {
                      hw_vi
              }
      }
      vrrp_script check_apps {
          script "/sbin/ha_check.sh"
          interval 3
      }
      vrrp_instance hw_vi {
              state BACKUP
              nopreempt
      
              interface eth0
      
              virtual_router_id 51
              priority 150
              advert_int 3
              authentication {
                      auth_type PASS
                      auth_pass 123456
              }
      
              virtual_ipaddress {
                      192.168.10.100/24 dev em1 scope global
                      192.168.10.200/24 dev em1 scope global
              }
              track_script {
                  check_apps
              }
      }
      ######
      ###### host2 配置文件
      ! Configuration File for keepalived
      global_defs {
              notification_email {
                  cjfeii@126.com
              }
              notification_email_from ha@126.com
              smtp_server smtp.126.com
              smtp_connect_timeout 30
              router_id host2
      }
      vrrp_sync_group hw_vsg {
              group {
                      hw_vi
              }
      }
      vrrp_script check_apps {
          script "/sbin/ha_check.sh"
          interval 3
      }
      vrrp_instance hw_vi {
              state BACKUP
      
              interface eth0
      
              virtual_router_id 51
              priority 100
              advert_int 3
              authentication {
                      auth_type PASS
                      auth_pass 123456
              }
      
              virtual_ipaddress {
                      192.168.10.100/24 dev em1 scope global
                      192.168.10.200/24 dev em1 scope global
              }
              track_script {
                  check_apps
              }
      }
    • 启动 keepalived
    # service keepalived start
  • CentOS7 Cluster 구축하기 Linux HA – VIP, 공유스토리지

    CentOS7 HA Cluster 구축 하기

    * 요구사항

     – 두대의 Private IP를 가진 서버, 별개의 VIP를 통한 Failover 구성

     – 상기 두개의 서버에서 1개의 공유 스토리지 사용 : Block Storage, GFS2, 100GB/1000IOPS (성능은 맞추어서)

    * 아키텍처

    * HA 구성을 위한 리소스 구매

    – Linux Server 2대 신청 : CentOS 7.x – Minimal Install (64 bit)

    ==>  svr01.mungi.com  10.178.80.44

    ==>  svr02.mungi.com  10.178.80.45

    – Performance Storage 100GB/1000IOPS 신청

    ==>  대상 주소 :161.26.102.18

    ==>  허용서버 추가 (2대)

    ==>  svr01

       사용자명: IBM01SU1040169-V36035181

       패스워드: Sm99G8pgxSlfH3EG

       호스트 IQN: iqn.2005-05.com.softlayer:IBM01SU1040169-V36035181

    ==>  svr02

       사용자명: IBM01SU1040169-V29352927

       패스워드: EZlHmrKzNgexS9ar

       호스트 IQN: iqn.2005-05.com.softlayer:IBM01SU1040169-V29352927

    – VIP 사용을 위한 Portable Private IP 신청 

    ==>  10.178.5.230

    * iSCSI연결

     

    yum install -y iscsi-initiator-utils device-mapper-multipath
    touch /etc/multipath.conf
    systemctl start multipathd
    systemctl enable multipathd
    cp /etc/iscsi/initiatorname.iscsi{,.orig}
    vi /etc/iscsi/initiatorname.iscsi #=> CloudZ포털에서 확인한 HOST IQN 값으로 변경
    cp /etc/iscsi/iscsid.conf{,.orig}
    vi /etc/iscsi/iscsid.conf  #=> 아래 항목을 주석 해제 및 CloudZ 포털에서 확인한 값으로 변경
        node.session.auth.authmethod = CHAP
        node.session.auth.username = "Username-value-from-SL-Portal"
        node.session.auth.password = "Password-value-from-SL-Portal"
        discovery.sendtargets.auth.authmethod = CHAP
        discovery.sendtargets.auth.username = "Username-value-from-SL-Portal"
        discovery.sendtargets.auth.password = "Password-value-from-SL-Portal"
    systemctl enable iscsi
    systemctl enable iscsid
    systemctl start iscsi
    systemctl start iscsid
    systemctl status iscsid #=> active (running) 인지 확인
    iscsiadm -m discovery -t sendtargets -p "161.26.102.18" #=> CloudZ 포털에서 확인한 IP 값으로 변경
    iscsiadm -m node -L automatic
    multipath -l #=> 아래 처럼 보여야 함
    * Cluster 구성
    /etc/hosts에 상대 정보 추가
    10.178.80.44  svr01.mungi.com svr01
    10.178.80.45  svr02.mungi.com svr02
    ==> VIP
    yum install -y corosync pacemaker pcs resource-agents
    systemctl start pcsd
    systemctl enable pcsd
    systemctl enable corosync
    systemctl enable pacemaker
    passwd hacluster                   #자동생성된 hacluster유저의 패스워드 설정
    # --> 여기서 부터는 한쪽에서만 해도 됨.
    pcs cluster auth svr01          #인증 계정 적용
    pcs cluster auth svr02

    # MyCluster 이름의 클러스터를 생성

    #해당 클러스터엔 svr01 svr02 두대의 서버가 포함

    #데이터 전송은 UDP통신을 사용하도록 설정

     

    pcs cluster setup --start --name MyCluster svr01 svr02 --transport udpu
    pcs property set stonith-enabled=false
    pcs cluster start --all
    pcs status #옵션 정상 구성확인, 계속볼려면 crm_mon

    * VIP 클러스터 리소스 설정, Portable Private IP 사용

    pcs resource create SVC_VIP IPaddr2 ip=10.178.77.230 cidr_netmask=32 nic=eth0:1 op monitor interval=5s  #사용할 VIP로 설정, 퍼블릭이면 eth1:1

    * 스토리지 클러스터 리소스 설정

     

    iscsiadm -m session  #각서버에서 세션 맺어진 것 확인
    yum install -y fence-agents-scsi  gfs2-utils  lvm2-cluster
    # multipath -l dev id 확인후 3600a098038303743372b4966496d724d 변경
    pcs stonith create SCSI-STONITH fence_scsi devices=/dev/mapper/3600a098038303743372b4966496d724d pcmk_monitor_action=metadata  pcmk_reboot_action=off pcmk_host_list="svr01 svr02" meta provides=unfencing
    pcs property set stonith-enabled=true
    pcs property set no-quorum-policy=ignore
    pcs property set default-resource-stickiness=100

    #볼륨 매니저 설정

     

    lvmconf --enable-cluster
    pcs cluster cib dlm_cfg
    pcs -f dlm_cfg resource create dlm ocf:pacemaker:controld op monitor interval=120s on-fail=fence clone interleave=true ordered=true
    pcs -f dlm_cfg resource create clvmd ocf:heartbeat:clvm op monitor interval=120s on-fail=fence clone interleave=true ordered=true
    pcs -f dlm_cfg constraint order start dlm-clone then clvmd-clone
    pcs -f dlm_cfg constraint colocation add clvmd-clone with dlm-clone
    pcs -f dlm_cfg property set no-quorum-policy=freeze
    pcs -f dlm_cfg constraint
    pcs -f dlm_cfg resource show
    pcs cluster cib-push dlm_cfg

    #디스크 파티션 구성 및 포맷

     

    fdisk /dev/mapper/3600a098038303743372b4966496d724d
      n -> primary -> 계속 엔터, t -> 8e
    partprobe /dev/mapper/3600a098038303743372b4966496d724d
    pvcreate -ff /dev/mapper/3600a098038303743372b4966496d724d
    vgcreate --clustered=y vg_cluster /dev/mapper/3600a098038303743372b4966496d724d
    lvcreate -l 100%FREE --name lv_storage vg_cluster
    mkfs.gfs2 -j2 -t MyCluster:DataDisk -p lock_dlm /dev/vg_cluster/lv_storage

    # 디스크 마운트

     

    mkdir -p /DataDisk  #디렉토리 생성은 양쪽 서버에 수행
    pcs resource create ClusterFS Filesystem device="/dev/vg_cluster/lv_storage" directory="/DataDisk" fstype="gfs2" "options=noatime" op monitor interval=10s on-fail=fence clone interleave=true