DRBDに挑戦;sambaの起動:6(CentOS7)

drbdの設定は終わったのですが、sambaの起動状況を判断してprimary, secondaryの切り替えを行いたいのですが、この方法が判りませんが、下記の方法でエラーが出ていないので、この設定を入れています。systemctl status smb 同様に nmb も行い起動していないことを確認、又、ststemctl disable smb 同様に nmb も行い、ホストの起動時に走らないようにする。
# pcs resource create SAMBA systemd:smb –group smbgroup
# pcs resource create NAMED systemd:nmb –group smbgroup
#pcs status

Cluster name: mycluster
Stack: corosync
Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) - partition with quorum
Last updated: Sun Oct 18 08:14:05 2020
Last change: Sun Oct 18 08:07:39 2020 by root via cibadmin on smb0

2 nodes configured
7 resources configured

Online: [ smb0 smb1 ]

Full list of resources:

 Resource Group: smbgroup
     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
     SAMBA	(systemd:smb):	Started smb0
     NAMED	(systemd:nmb):	Started smb0
 Master/Slave Set: MS_DRBD0 [DRBD0]
     Masters: [ smb0 ]
     Slaves: [ smb1 ]

Failed Resource Actions:
* SAMBA_monitor_60000 on smb0 'not running' (7): call=44, status=complete, exitreason='',
    last-rc-change='Sun Oct 18 08:07:08 2020', queued=0ms, exec=0ms

Daemon Status:
  corosync: active/enabled
  pacemaker: active/enabled
  pcsd: active/enabled

SAMBA (systemd:smb): Started smb0 と NAMED (systemd:nmb): Started smb0 がある事を確認
# systemctl stop smb
# pcs status

前略
Resource Group: smbgroup
     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
     SAMBA	(systemd:smb):	FAILED smb0
     NAMED	(systemd:nmb):	Stopped
 Master/Slave Set: MS_DRBD0 [DRBD0]
     Masters: [ smb0 ]
     Slaves: [ smb1 ]

Failed Resource Actions:
* SAMBA_monitor_60000 on smb0 'not running' (7): call=56, status=complete, exitreason='',
    last-rc-change='Sun Oct 18 08:21:13 2020', queued=0ms, exec=0ms

Daemon Status:
  corosync: active/enabled
  pacemaker: active/enabled
  pcsd: active/enabled

smb0 が FAILED になっているが smb0 のままで、smb1 に移行しないが、少したって pcs status をやると smb0 が起動している。つまり少しの間 smb0 が落ちているが、自動的に再起動している。なのでいいとする。又、Failed Resource Actions: を消すには
# pcs resource cleanup
# pcs status
で見るとエラーが消えている筈

samba関連の設定ご存知なら是非、御教授ください。

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

DRBDに挑戦;drbdのインストール:5(CentOS7)

ELRepoリポジトリーのインストール
# rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
DRBDのインストール
#
yum -y install kmod-drbd84

drbdに割り当てるディスクはLVMで作成しそれぞれ /dev/vdd になっている
DRBDリソース(r0.res)設定ファイルの作成
# gedit /etc/drbd.d/r0.res

resource r0 { ← DRBDリソース名をr0とする
    device    /dev/drbd0;
    meta-disk internal;
    on smb0 { ← node1ホスト名(「uname -n」コマンドで表示される名前)
        disk      /dev/vdd; ← node1論理ボリューム名
        address   192.168.11.60:7780; ← node1IPアドレス
    }
    on smb2 { ← node2ホスト名:本来はsmb1(「uname -n」コマンドで表示される名前)
        disk      /dev/vdd; ← node2論理ボリューム名
        address   192.168.11.61:7780; ← node2IPアドレス
    }
}

メタデーターの作成
# drbdadm create-md r0  (注:データーのあるディスクに行ってもデータは消えない)
md_offset 499826814976
al_offset 499826782208
bm_offset 499811528704

Found some data

==> This might destroy existing data! <==
Do you want to proceed?
[need to type ‘yes’ to confirm]
yes

initializing activity log
initializing bitmap (14896 KB) to all zero
Writing meta data…
New drbd meta data block successfully created.
これは前に何か使用していたディスクなので、Do you want to proceed? と聞いているが、マッサラなディスクだと聞いてこない。
ここまでを smb1でもやる

drbdの起動
# systemctl start drbd
smb1も起動しないとプロンプトに戻ってこない。
また、ここまでをsmb1でもやる

DRBD確認
DRBDディスク初期同期スキップ(空ディスクの場合のみ)※ディスクにデータが格納されている場合はスキップしてはいけないが、メタデーターがインターなるだと、データーが壊されている事も考えられる
# drbdadm new-current-uuid –clear-bitmap r0/0
# cat /proc/drbd

version: 8.4.11-1 (api:1/proto:86-101)
GIT-hash: 66145a308421e9c124ec391a7848ac20203bb03c build by mockbuild@, 2020-04-05 02:58:18
 0: cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
    ns:0 nr:0 dw:0 dr:0 al:8 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

cs が connected で、ro が両方共 Secondary(待機状態)になっている事。
smb1側でも行って同じになっている事。smb0側で
# drbdadm primary all
# cat /proc/drbd

前略
 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
後略

roがPrimary/Secondaryになっている事。smb1側でも行ってroが Secondary/Primaryになっている事。smb0 で DRBDデバイス(/dev/drbd0)にファイルシステム作成
# mkfs.xfs /dev/drbd0

meta-data=/dev/drbd0             isize=512    agcount=4, agsize=30506075 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=122024299, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=59582, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

# mount /dev/drbd0 /SmbData/
# df

devtmpfs           2006988       0   2006988    0% /dev
tmpfs              2022644   93032   1929612    5% /dev/shm
tmpfs              2022644    9764   2012880    1% /run
tmpfs              2022644       0   2022644    0% /sys/fs/cgroup
/dev/vda1         19520512 6486968  13033544   34% /
/dev/vdc          15718400 5144496  10573904   33% /Download
tmpfs               404532       4    404528    1% /run/user/42
tmpfs               404532      36    404496    1% /run/user/0
/dev/drbd0       487858868   32992 487825876    1% /SmbData

SmbDataにファイルを作って出来ているか確認
# touch /SmbData/test.txt
# ll /SmbData/
合計 0
-rw-r–r– 1 root root 0 10月 18 04:36 test.txt
次に、smb0をsecondayにし、smb1をprimaryにするが、マウントを外さないとならない
# umount /SmbData
dfでマウントされていない事を確認後
# drbdadm secondary all
smb1で
# drbdadm primary all
# cat /proc/drbd
で、ro:Secondary/Primary になっている事を確認後、マウントしdfでマウントされている事を確認後、llでファイルがsmb1にもあるか確認
# mount /dev/drbd0 /mnt
# df

<pre class="wp-block-code"><code><span style="color: #ff6600;">devtmpfs           2006988       0   2006988    0% /dev
tmpfs              2022644   93032   1929612    5% /dev/shm
tmpfs              2022644    9764   2012880    1% /run
tmpfs              2022644       0   2022644    0% /sys/fs/cgroup
/dev/vda1         19520512 6486968  13033544   34% /
/dev/vdc          15718400 5144496  10573904   33% /Download
tmpfs               404532       4    404528    1% /run/user/42
tmpfs               404532      36    404496    1% /run/user/0
/dev/drbd0       487858868   32992 487825876    1% /SmbData</span></code></pre>

# ll /SmbData
合計 0
-rw-r–r– 1 root root 0 10月 18 04:36 test.txt
そしてumount後、smb1をsecondaryにする
# umount /SmbData
# drbdadm secondary all
smb0をpromaryにし、
# drbdadm primary all
smb0とsmb1で cat /Proc/drbd を行いsmb0がprimary, smb1がsecondaryになっている事を確認

DRBDクラスタ化
グループ名は前にsmbgroupで定義している
# pcs resource create DRBD0 ocf:linbit:drbd drbd_resource=”r0″ –group smbgroup
DRBD0をmaster/slave※として設定
# pcs resource master MS_DRBD0 DRBD0 master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true
DRBDのステータスをクリアー
# pcs resource cleanup MS_DRBD0
Cleaned up DRBD0:0 on smb1
Cleaned up DRBD0:0 on smb0
Cleaned up DRBD0:1 on smb1
Cleaned up DRBD0:1 on smb0
Waiting for 1 reply from the CRMd. OK
# pcs resource show

 Resource Group: smbgroup
     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
 Master/Slave Set: MS_DRBD0 [DRBD0]
     Masters: [ smb0 ]
     Slaves: [ smb1 ]

/dev/drbd0をxfs形式で/mntディレクトリへマウントするクラスタリソースをFS_DRBD0という名前で追加
# pcs resource create FS_DRBD0 ocf:heartbeat:Filesystem device=/dev/drbd0 directory=/SmbData fstype=xfs –group smbgroup
# pcs resource show

 Resource Group: smbgroup
     vipcheck_res	(ocf::myres:VIPcheck):	Started smb0
     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb0
     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb0
 Master/Slave Set: MS_DRBD0 [DRBD0]
     Masters: [ smb0 ]
     Slaves: [ smb1 ]

FS_DRBD0があることを確認
DRBDがmaster側のノードでリソースグループ(smbgroup)を起動する
# pcs constraint order promote MS_DRBD0 then start smbgroup
Adding MS_DRBD0 smbgroup (kind: Mandatory) (Options: first-action=promote then-action=start)
DRBDがMaster側のノードでFS_DRBD0リソースを起動する
# pcs constraint colocation add FS_DRBD0 MS_DRBD0 INFINITY with-rsc-role=Master
# pcs constraint order promote MS_DRBD0 then start FS_DRBD0
Adding MS_DRBD0 FS_DRBD0 (kind: Mandatory) (Options: first-action=promote then-action=start)
smb0とsmb1で df をやって、smb0でSmbDataがマウントされていて、smb1側ではマウントされていない事を確認。smb0をhalt
# halt -p
smb1側で
# pcs status

Cluster name: mycluster
Stack: corosync
Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) - partition with quorum
Last updated: Sun Oct 18 07:11:48 2020
Last change: Sun Oct 18 07:02:15 2020 by root via cibadmin on smb0

2 nodes configured
5 resources configured

Online: [ smb1 ]
OFFLINE: [ smb0 ]

Full list of resources:

 Resource Group: smbgroup
     vipcheck_res	(ocf::myres:VIPcheck):	Started smb1
     VirtualIP	(ocf::heartbeat:IPaddr2):	Started smb1
     FS_DRBD0	(ocf::heartbeat:Filesystem):	Started smb1
 Master/Slave Set: MS_DRBD0 [DRBD0]
     Masters: [ smb1 ]
     Stopped: [ smb0 ]

Daemon Status:
  corosync: active/enabled
  pacemaker: active/enabled
  pcsd: active/enabled

smb0がofflineでsmb1がマスターになっていることを確認
# df
で SmbData がマウントされている事を確認後
smb0起動し、pcs statusで両方共オンラインになっている事、マスターはまだ smb1であることを確認
# pcs cluster standby smb1
# pcs status
で smb0 がマスターになっている事を確認
# pcs cluster unstandby smb1
# pcs status
で両方がオンラインになっている事を確認
# df
で smb0側にSmbDataがマウントされている事を確認

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

DRBDに挑戦;Pacemaker+Corosync+pcsのインストール:4(CentOS7)

ここからやっとHAクラスターの設定に入ります。私は勉強の為にdrbdを同じメインホストのサブホストにやっていますが、本来なら物理的に違うマシンにやるべきです。
例によって http://centossrv.com/pacemaker.shtml を参考に設定して行きます。
前提条件として2つのサーバーを
ホスト名:smb0 IP:192.168.11.60
ホスト名:smb1 IP:192.168.11.61
仮想IPアドレス 192.168.11.65
とし、先ずはホスト名を /etc/hosts の記入します
# echo 192.168.11.60 smb0 >> /etc/hosts
# echo 192.168.11.61 smb1 >> /etc/hosts
必要なプログラムをインストールとpcsdの起動
# yum -y install pacemaker corosync pcs
# systemctl start pcsd
# systemctl enable pcsd
次にクラスターの作成
# passwd hacluster
パスワード2回聞かれるので、入力
ここまでを smb0,  smb1の両方で行う。ここからはsmb0で
# pcs cluster auth smb0 smb1 -u hacluster
パスワード聞かれるので入力
smb0: Authorized
smb1: Authorized
# pcs cluster setup –name mycluster smb0 smb1 –force
smb0: Stopping Cluster (pacemaker)…
smb1: Stopping Cluster (pacemaker)…
smb0: Successfully destroyed cluster
smb1: Successfully destroyed cluster

Sending ‘pacemaker_remote authkey’ to ‘smb0’, ‘smb1’
smb1: successful distribution of the file ‘pacemaker_remote authkey’
smb0: successful distribution of the file ‘pacemaker_remote authkey’
Sending cluster config files to the nodes…
smb0: Succeeded
smb1: Succeeded

Synchronizing pcsd certificates on nodes smb0, smb1…
smb0: Success
smb1: Success
Restarting pcsd on the nodes in order to reload the certificates…
smb0: Success
smb1: Success
クラスターノードの起動、自動起動設定、ステイタス確認
#
pcs cluster start –all
smb0: Starting Cluster (corosync)…
smb1: Starting Cluster (corosync)…
smb0: Starting Cluster (pacemaker)…
smb1: Starting Cluster (pacemaker)…
# pcs cluster enable –all
smb0: Cluster Enabled
smb1: Cluster Enabled
# pcs status
Cluster name: mycluster

WARNINGS:
No stonith devices and stonith-enabled is not false

Stack: corosync
Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
Last updated: Sat Oct 17 15:14:31 2020
Last change: Sat Oct 17 15:08:48 2020 by hacluster via crmd on smb1

2 nodes configured
0 resources configured

Online: [ smb0 smb1 ]    → smb0, smb1  Onlineを確認

No resources

Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled

pcs statusをsmb1でも確認する

DRBDのアクセスに使用する仮想IPアドレスの設定(smb1でもやる)
# rpm -ivh –nodeps https://osdn.jp/dl/linux-ha/hb-extras-1.02-1.x86_64.rpm
https://osdn.jp/dl/linux-ha/hb-extras-1.02-1.x86_64.rpm を取得中
準備しています… ################################# [100%]
更新中 / インストール中…
1:hb-extras-1.02-1 ################################# [100%]
ln: シンボリックリンク `/usr/lib64/stonith/plugins/external/stonith-wrapper’ の作成に失敗しました: そのようなファイルやディレクトリはありません
警告: %post(hb-extras-1.02-1.x86_64) スクリプトの実行に失敗しました。終了ステータス 1
終了ステータス が1で終わっていますが大丈夫みたい。
# mkdir /usr/lib/ocf/resource.d/myres
# cp /usr/lib64/heartbeat/hb-extras/VIPcheck /usr/lib/ocf/resource.d/myres/
VIPcheckリソースエージェント起動
# pcs resource create vipcheck_res ocf:myres:VIPcheck target_ip=192.168.11.17 count=1 wait=10 –group smbgroup
stonithを無効化
# pcs property set stonith-enabled=false
2ノード構成のためquorumを無効化
# pcs property set no-quorum-policy=ignore
ここまでをsmb1でも行う。

仮想IPアドレス設定
# pcs resource create VirtualIP IPaddr2 ip=192.168.11.65 cidr_netmask=24 op monitor interval=30s –group smbgroup
Assumed agent name ‘ocf:heartbeat:IPaddr2’ (deduced from ‘IPaddr2’)
リソース確認
# pcs resource show
Resource Group: smbgroup
vipcheck_res (ocf::myres:VIPcheck): Started smb0
VirtualIP (ocf::heartbeat:IPaddr2): Started smb0
仮想IPアドレス通信確認
# ping -c 1 192.168.11.65
PING 192.168.11.65 (192.168.11.65) 56(84) bytes of data.
64 bytes from 192.168.11.65: icmp_seq=1 ttl=64 time=0.062 ms

— 192.168.11.65 ping statistics —
1 packets transmitted, 1 received, 0% packet loss, time 0ms
rtt min/avg/max/mdev = 0.062/0.062/0.062/0.000 ms
これをsmb1でも行う。

フェイルオーバーが正常に働くか確認
smb0で
# halt
smb1で
# pcs status
Cluster name: mycluster
Stack: corosync
Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
Last updated: Sat Oct 17 16:52:51 2020
Last change: Sat Oct 17 16:51:00 2020 by hacluster via crmd on smb1

2 nodes configured
2 resources configured

Online: [ smb1 ]
OFFLINE: [ smb0 ]

Full list of resources:

Resource Group: smbgroup
vipcheck_res (ocf::myres:VIPcheck): Started smb1
VirtualIP (ocf::heartbeat:IPaddr2): Started smb1

Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
pink所を確認。この時
Failed Resource Actions:
* vipcheck_res_monitor_0 on smb1 ‘not installed’ (5): call=5, status=Not installed, exitreason=”,
等のエラーがあった場合は、原因を除いてから
# pcs resource cleanup
でエラー表示を消去する
。smb1でping確認すること
smb0を起動する。pcs status をやってもsmb0はonlineになっているがまだsmb1側が動いている。smb0側でsmb1をスタンバイにして、smb0に移るか確認
# pcs cluster standby smb1
# pcs status
Cluster name: mycluster
Stack: corosync
Current DC: smb1 (version 1.1.21-4.el7-f14e36fd43) – partition with quorum
Last updated: Sat Oct 17 17:24:11 2020
Last change: Sat Oct 17 17:24:04 2020 by root via cibadmin on smb0

2 nodes configured
2 resources configured

Node smb1: standby
Online: [ smb0 ]

Full list of resources:

Resource Group: smbgroup
vipcheck_res (ocf::myres:VIPcheck): Started smb0
VirtualIP (ocf::heartbeat:IPaddr2): Started smb0

Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
smb1を復帰させる
#
pcs cluster unstandby smb1
smb0, smb1がonlineになっていることを確認。
smb0, smb1の両方で仮想IPアドレスにping が通るか確認

 

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

DRBDに挑戦;作ったクローンの設定変更:3(CentOS7)

  • DRBDに挑戦:2からの続きです。マウントされたルート領域の該当部分を変更して行きます。先ずはスパイスで使用するポートの変更。これはスパイスで指定するときメインのホストのIPアドレス:ポート番号と指定するので、ポートが同じではどっちが接続される??
    この指定は /test1/etc/services にあるので、 8932行位にある
  • rfb 590X/tcp # Remote Framebuffer の 590Xを新しいポートに変更
    rfb 590X/udp # Remote Framebuffer の590Xを新しいポートに変更、ここは使っていないみたいだけど、今後使われるかも?ポートを変更したので、
    iptablesでこのポートを開ける。gedit で iptables.sh (centossrb.com) を参照
    echo “-A INPUT -p tcp –dport 590X -j ACCEPT_COUNTRY” >> $IPTABLES_CONFIG の590Xを新しいポートに変更。Xは0-9の値。
    サブホスト自身のスパイスのポートも変更する。
    # gedit /etc/libvirt/qemu/イメージファイル名
    <graphics type=’spice’ port=’590X’ autoport=’no’ listen=’0.0.0.0’>
    <listen type=’address’ address=’0.0.0.0’/>
    <image compression=’off’/>
    </graphics>
    の 590X の所を590Xを新しいポートに変更後、
    # virsh define /etc/libvirt/qemu/イメージファイル名
    で、変更を反映させる。
  • 次はホスト名の変更。これは /test1/etc/hostname にあるので、これを新しい名前に変更しておく。
  • ip addressを変更する。これは /test1/etc/sysconfig/network-scripts/ifconfig-eth0 にあるので、IPADDR=”192.168.xxx.xxx” を違うアドレスに変更する。又、UUIDの設定がある場合はコメントアウトしておく
  • vda1のUUIDの変更。これはマウントしているので
    # blkid とすると表示される
    /dev/mapper/loop0p1: UUID=”a5a9349b-d59c-xxxxx-a243-e1fxxxxxbf944″ TYPE=”xfs”
    のでこれを変更するが、マウントされていると出来ないので
    # umount /test1
    # xfs_admin -U `uuidgen` /dev/mapper/loop0p1
    あれ、エラー xfs_admin: /dev/mapper/loop0p1 contains a mounted filesystem
    umount したのに、こういう時はデバイス指定で umount
    #
    umount /dev/mapper/loop0p1 で再度
    # xfs_admin -U `uuidgen` /dev/mapper/loop0p1
    で新しいUUIDが表示されるので確認。
  • UUIDが変わったので、ブート時にエラーが出るので、再度マウントし
    # mount -t xfs /dev/mappaer/loop0p1 /test1
    変更するファイルは /test1/boot/grub2/grub.cfg にあるので、
    # gedit /test/boot/grub2/grub.cfg
    87行目位からはじまる、# BEGIN /etc/grub/10_linux # の所にUUIDの指定がいっぱいあるので 、置換を使って古いUUIDを全て新しいUUIDに変更して、umount してから起動する。これでクローンが完成した。
クローンは2つ作っておく、理由は一つは他のサブホストのベースになるものもう一つはsamba(drbd)で相方のサブホスト用

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

DRBD挑戦;クローンの制作:2(CentOS7)

私はサブホストの /etc/fstab の設定にUUIDを指定するのに抵抗がある。というのもサブホストをクローンした場合に同じUUIDになり、おかしくなるのだ。なので先ずはオリジナルのサブホストの fstabのUUIDの指定を変更しデバイスで指定する
#UUID=a5a9349b-d59c-4ca6-a243-e1fab94bf944 / xfs defaults 0 0 をコメントアウトする。そしてデバイスでルートを指定。
/dev/vda1 / xfs defaults 0 0
一番最初に設定したものは必ずvdaになるので、これだと、クローンしたサブホストでも問題ない。
蛇足:centos7でサブホストを作ると、必ず指定した領域に更に領域を作ります。これが色々問題を起こす。参照: https://www.kinryokai.net/modules/news/article.php?storyid=298 特にcentos7ではカーネルの指定をしてもエラーになってしまう。多分一つの領域に複数の領域を作らなければならない事があるからか(ルート領域とswap等)。でもこれは作成後にディスクの追加で簡単に解決すると思うのだが。なんでシンプルにルート領域だけを作ってくれないの!!!
作成する前に、指定するサブホストにディスクの追加をしていたら、そのデスクと同じサイズのクローン用のディスクを作成しておいて下さい。早速クローンを作りますがサブホストは停止していなくてはなりません。仮想マシンマネージャーから サブホストを選び、右クリックし、クローン….をクリックすると始まります。しばらくすると無事終了しますが、問題があります。
というのも色々な設定がダブっているからです。
ココを参照して下さい。 ココを見るとわかるようにディスクのUUID、IP Address、hostname それとスパイスで使用するポートがダブっているので変更する必要がある。

ここで起動後変更してもいいが、安全の為、オフラインで変更をしていく。この時イメージファイルをRAWで作成していないと、このファイルをマウント出来無い。CentOS7:サブホストをimageファイルで作る時の注意を参照
クローンで出来たイメージファイルをマウントしていくが、このままではできないので
# kpartx -av /var/lib/libvirt/images/作成されたイメージファイル
# ls /dev/mappaer/
Swap-smb0 Swap-test loop0p1
Data1-Image Swap-kvm Swap-smb1 control
と表示され、loop0p1が出来ているので、これを任意の位置にマウント
# mount -t xfs /dev/mappaer/loop0p1 /test1
ファイルは xfs でフォーマットしていて、test1は私が作成してるポイント
これで作られたイメージファイルのルート領域が /test1 以下に展開される。

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

DRBDに挑戦;サブホストの制作:1(CentOS7)

先ずはホストになるCentOS7をインストールしますが、https://centossrv.com/ を参考に仮想マシンの構築を飛ばして、NTPサーバーの構築までをやっている前提で、進めます。

私はGDIが好きなので、先ずは仮想マシンマネージャーのインストール。

# yum install virt-manager

これで、アプリケーション → システムツール に仮想マシンマネージャーが出来ますので、ファイル → 新しい仮想マシンを制作 をクリックし、作成して行きますが、その前にやっておくことがあります。それは最新のCentOS7のバージョンの .iso を/Download(この場所は任意、私は別パーティションでこれを作っている)しておく。これはローカルのハードディスクからのインストールが速いため。いよいよ仮想マシンを作成しますが。

 

  • インストールの選択では “ローカルのインストールメディア”を選択
  • インストールメディアの場所で、ダウンロードして置いた.isoファイルを指定、インストールメディアに応じて…….にチェックを入れ、
  • メモリーやCPUの指定はは御自由に
  • この仮想マシンにストレージ…..では(ここが肝心)CentOS7:サブホストをimageファイルで作る時の注意 を参考にイメージファイルを作成し、、完了をクリックし、完了をクリックし、作ったファイルを選択し、ボリュームの選択をクリック、作成するサブホストの名前を入力し、完了をクリックするとインストールが始まります。
  • ベース環境はサーバー(GUI使用)、アドオンは ファイルサーバー、ネットワークファイルシステムクライアント、開発ツール、セキュリティーツール、システム管理ツールにチェックを入れ
  • インストール先は自動ではなく、割り当てたイメージファイル全体をルート領域として設定、(スワップは作成しない、LVMではなく標準パーティション)
  • KDUMPとセキュリティーポリシーはオフ(本当はオンで設定をした方がいいが今一つ慣れていないので仕方無くオフにした)
  • ネットワーク(サーバーなので固定IPとした)とホスト名を設定。その後インストールの開始。
  • 始まってから、rootのパスワード設定と新規ユーザーの作成とパスワード設定をやっておく
  • サブホストでも仮想マシンの構築を飛ばして、NTPサーバーの構築までをやっておく。但しこの時 iptables.shの作成の時、スパイスで使うポートを空けておく。又、/etc/libvirt/qemu/作成したサブホスト.xmlのグラフィックの所を
    <graphics type=’spice’ port=指定したポート autoport=’no’ listen=’0.0.0.0′>
    <listen type=’address’ address=’0.0.0.0’/>
    <image compression=’off’’/>
    </graphics>
    に設定し
    # virsh define /etc/libvirt/qemu/作成したサブホスト.xml
    で、定義をしておく。

 

 

 

 

 

 

 

今度はswapの設定をやるが、私はLVMでスワップ用のボリュームグループを作り、各サブホスト用のswapをLVで作っておく。作成したサブホストを開き、表示 → 詳細 を開き、ハードウェアを追加をクリック(画像1)、表示されたウィンドウで、カスタムストレージ…….にチェックを入れ、管理をクリック(画像2)、表示されたウィンドウのローカルを参照をクリックし(画像3)、作った領域(LVM)を指定し、完了をクリックして、ディスクを追加する。この時上から順にvda,vdb,vdcとなるので、サブホストのfstabなどで設定を追加する。

 

 

カテゴリー: DRBDに挑戦(CentOS7) | コメントする

またしてもAMAZONを騙った詐欺メール

画像の説明、一番上の赤線はこのメールが本当はどこから送られて着たかを、表示している所。ソフトはサンダーバードで、メニューの表示→ヘッダー(H)→全部にしているので、これが表示されている。どこから来たかというと from amazon.co.jp(165….ctinets.com(165.84.180.39) なんだけどいかにもアマゾンみたいだが、実際はctintes.comからでこれはアマゾンでは無い。

2番目の赤線の(所有権の証明)にマウスオーバーすると三番目の赤線の所が表示される。これは所有権の証明をクリックすると飛ぶ場所を示している。三番目の所にドメイン名は無く、IPアドレス(192.3.1.108)が表示されている。アマゾンならドメインを表示するので、これはおかしい。ちなみにこのIPアドレスを調べても持ち主が表示されないので誰だか特定できない。ますますおかしい。

蛇足:IPアドレスから持ち主を調べるには https://tech-unlimited.com/whois.html にアクセスし、四角の空欄にIPアドレスを入れ、その右をクリックする。

 

カテゴリー: 危険メールや手紙、IP | コメントする

SMS(ショート・メッセージ・サービス)を使った詐欺メール

SMSとは携帯の電話番号に入ってくるメッセージの事。下がその画像である。

これは詐欺メールなのでクリックしてはいけない。

宅配業者がSMSでこのようなメッセージを送ってくることは無い。
ちなみに duckdns.org はダイナミックDNSと呼ばれる所で、宅配業者が使うことはない。なぜなら、ダイナミックDNSを使うと自分の身を隠せるからだ。理由はここを参照

カテゴリー: 危険メールや手紙、IP | コメントする

キーボードの設定ファイルが変更になっていた

ラズベリーパイ4にCentOS 7をインストールして、rootでログインしたら、キーボードが英語になっていた。日本語のjp106にしようと設定ファイルを探すが /etc/sysconfig/ に keyboardが無い!色々調べると

 systemdの採用により、キーボードの設定ファイルが/etc/sysconfig/keyboardから/etc/vconsole.confに変更になりました。だと

そこで、このファイルの KEYMAP=”us” を KEYMAP=”jp106″ に変更してからリブートしたら、直った。

カテゴリー: Linux運用時のメモ | コメントする

またしても、やばいメールが来た

このメールはアマゾンから発信されていない、赤字の通知の所がいかにも後からつけている。もしアマゾンがやるならこの文章を今後ともよろしくの前に記入する筈。

1:差出人のe-mailアドレス この差出人のドメインはpresencadigitall.com.brでアマゾンでは無い

2:リンクしている所にマウスオーバー(そこにマウスを持っていく)時に画面下に表示されるリンク先*これが一番大事*

そして右下に表示されている(これはサンダーバードというメールソフトの時、ほかのソフトでもあると思う)のはhttps://amazon-jp.azurewebsites.net と表示されいかにもアマゾンぽいが、このサイトのドメインは azurewebsites.net でアマゾンでは無い

カテゴリー: 危険メールや手紙、IP | コメントする