Windows Sanal Makinelere oVirt Guest Agent Driver Kurulumu ve Yapılandırması

oVirt üzerine Windows bir sunucu kurulurken “Network Interfaces”, “e1000” ve “Disks”, “IDE” olarak gelmektedir. Aksi bir yapılandırma yaparsanız sunucunuz açılmayacaktır. Bu durum ayrıca makinanın performansınıda etkilemektedir. Bu nedenle “Network Interfaces”, “VirtIO” ve “Disks”, “VirtIO-SCSI” yapmalısınız. Böylelikle makineniz düzgün bir performansta çalışacaktır.

Bu yapılandırmayı yapabilmeniz için ise Windows sunucuyu kurduktan sonra oVirt Guest Agent Driver(oVirt-toolsSetup)’ını kurmalısınız. İlk önce oVirt-tools-setup.iso (https://resources.ovirt.org/pub/ovirt-4.2/iso/oVirt-toolsSetup/) dosyasının ilgili versiyonunu indirip, makineye CD Drive olarak bağladıktan sonra tipik *.exe kurulumu gerçekleştirmelisiniz. Kurulum bittikten sonra,

Network ayarını e1000’den VirtIO’ya çekin.

Disk ayarlarını ise IDE’den VirtIO-SCSI yapın.

oVirt Debian/Ubuntu Guest Agent Kurulumu ve Yapılandırması – Sorun Çözüldü

oVirt ortamına kurduğunuz Debian/Ubuntu makineler için aşağıdaki komutu çalıştırarak ovirt-guest-agent servisini kurabilirsiniz.

> sudo apt install ovirt-guest-agent -y

Fakat servis durumunu kontrol ettiğinizde aşağıdaki gibi hata aldığınızı göreceksiniz.

Aşağıdaki yönergeleri izleyerek hataları giderip, servisi sağlıklı bir şekilde çalıştırabilirsiniz.

İlk önce “ovirt-guest-agent.service” servis dosyasını edit edip, “User=root” olarak değiştirelim(servisin root haklarında çalışmasının, güvenlik tarafındaki oluşturabileceği sıkıntılara şimdilik değinmiyorum).

> sudo vi /lib/systemd/system/ovirt-guest-agent.service

User=root

Ardından aşağıdaki komutu çalıştırın.

> systemctl daemon-reload

Akabinde aşağıdaki komutla device’leri listeleyebilirsiniz. Çünkü “ovirt-guest.agent.0” aygıtını kullanacağız.

> ll /dev/virtio-ports/

Şimdi “ovirt-guest-agent.conf” dosyasını aşağıdaki gibi yapılandıralım.

> sudo vi /etc/ovirt-guest-agent.conf

[virtio]
# device = /dev/virtio-ports/com.redhat.rhevm.vdsm
device = /dev/virtio-ports/ovirt-guest-agent.0

Son olarak aşağıdaki komutları sırasıyla çalıştırın. İşlem bu kadar.

> sudo systemctl enable ovirt-guest-agent.service

> sudo systemctl start ovirt-guest-agent.service

> sudo systemctl status ovirt-guest-agent.service

Ovirt Internal Admin Şifresini değiştirme – Changing the Password for admin@internal(ovirt admin@internal password change)

Aşağıdaki komut ile internal admin kullanıcısının detaylarını görebilirsiniz. Yukarıdaki ss’de de durumu gözlemleyebilirsiniz.

> ovirt-aaa-jdbc-tool user show admin

Şifreyi reset’lemek için ise aşağıdaki komutu kullanabilirsiniz. Sorun olması durumunda (–force) parametresini kullanabilirsiniz.

> ovirt-aaa-jdbc-tool user password-reset admin

Ardından Engine servisini yeniden başlatmalısınız.

> systemctl restart ovirt-engine.service

Ovirt/RHEV 4.2 Engine SSL Yapılandırma – Bölüm 8

Selfsign ssl kullanan oVirt, aşağıdaki görselden de anlaşılacağı üzere trusted değil.

Bunun yerine doğrulanmış, satın alınmış ssl’inizle değiştirebilirsiniz. Bunun için aşağıdaki adımları takip etmeniz yeterli. Trusted ssl’lerimizi “/tmp/ssl/” (ca, crt, key)dizini altına attık.

Satın alınmış ssl ca yı “/etc/pki/ca-trust/source/anchors/” dizine kopyalayalım ve update certificate edelim.

> cp /tmp/ssl/certificate.ca certificate.pem

> update-ca-trust

Aşağıdaki pem dosyasını silebiliriz.

> rm /etc/pki/ovirt-engine/apache-ca.pem

Satın alınmış ssl ca yı “/etc/pki/ovirt-engine/” dizinine de kopyalayalım.

> cp /tmp/ssl/certificate.ca /etc/pki/ovirt-engine/apache-ca.pem

Eski selfsign sertifikalarının yedeğini alalım.

> cp /etc/pki/ovirt-engine/keys/apache.key.nopass /etc/pki/ovirt-engine/keys/apache.key.nopass.bak

> cp /etc/pki/ovirt-engine/certs/apache.cer /etc/pki/ovirt-engine/certs/apache.cer.bak

Satın alınmış ssl key sertifikasını “/etc/pki/ovirt-engine/keys/” dizinine atalım.

> cp /tmp/ssl/certificate.key /etc/pki/ovirt-engine/keys/apache.key.nopass

Aynı şekilde satın alınmış ssl crt dosyamızıda “/etc/pki/ovirt-engine/certs/” dizinine atalım.

> cp /tmp/ssl/certificate.crt /etc/pki/ovirt-engine/certs/apache.cer

Apache servisini yeniden başlatalım.

> systemctl restart httpd.service

Şimdi aşağıdaki dosyaların içeriğine ilgili satırları ekleyin.

vi /etc/ovirt-engine/engine.conf.d/99-custom-truststore.confedit‘leyin ve aşağıdaki satırları ekleyin.

– ENGINE_HTTPS_PKI_TRUST_STORE=”/etc/pki/java/cacerts”

– ENGINE_HTTPS_PKI_TRUST_STORE_PASSWORD=””

vi /etc/ovirt-engine/ovirt-websocket-proxy.conf.d/10-setup.conf” dosyasını da edit‘leyin ve aşağıdaki satırları ekleyin.

– PROXY_PORT=6100

– SSL_CERTIFICATE=/etc/pki/ovirt-engine/certs/apache.cer

– SSL_KEY=/etc/pki/ovirt-engine/keys/apache.key.nopass

– #SSL_CERTIFICATE=/etc/pki/ovirt-engine/certs/websocket-proxy.cer

– #SSL_KEY=/etc/pki/ovirt-engine/keys/websocket-proxy.key.nopass

– CERT_FOR_DATA_VERIFICATION=/etc/pki/ovirt-engine/certs/engine.cer

– SSL_ONLY=True

Son olarak aşağıdaki servisleri yeniden başlatın.

> systemctl restart ovirt-provider-ovn.service

> systemctl restart ovirt-engine.service

Ve görünüm aşağıdaki gibidir.

Ovirt/RHEV 4.2 Engine LDAP Yapılandırma – Bölüm 7

Engine login olduktan sonra, aşağıdaki komutla ilgili yapılandırma paketin varlığını kontrol edelim.

> rpm -qa | egrep -i ovirt-engine-extension-aaa-ldap-setup

Eğer paket yoksa aşağıdaki komut ile kurulumu gerçekleştirelim.

> yum install ovirt-engine-extension-aaa-ldap-setup

Şimdi aşağıdaki komut ile yapılandırmaya başlayaşlım.

> ovirt-engine-extension-aaa-ldap-setup

Komutu girdikten sonra aşağıdaki gibi sizden belirtilen çeşitlerdeki LDAP‘lardan bağlantı sağlayacağınız LDAP‘ın ilgili numarasını girmenizi beklemektedir. Ben FreeIPA kullandığım için 6 numarayı seçip devam ediyorum.

Ardından DNS sunucu kullanacakmısınız diye soruyor, single server(1) seçip devam ediyorum. Eğer sizin ortamınızda birden fazla varsa diğer DNS sunucularınızı da belirtebilirsiniz.

startTLS ve Insecure seçip devam ediyorum.

LDAP bağlantısı için belirlediğim kullanıcı ile beraber search user DN bilgilerini EKSİKSİZ ve DOĞRU bir şekilde girip, base DN(fatlan.com gibi)’ide girdikten sonra, yes diyerek tekrar devam ediyorum.

Ardından GUI de görünecek name‘yi (fatlan.com gibi) girip devam ediyorum.

İsterseniz burda test için belirlediğiniz user ile test edebilirsiniz.

Daha sonra Done diyerek işlemleri sonlandırıyorum.

En son olarak Engine servisini restart etmeniz gerekiyor.

> systemctl restart ovirt-engine.service

Ardında Engine GUI de giriş yapabiliriz. Aşağıdaki gibi kullanıcı yetkili değil diye uyarı veriyor, aslında login olabildiniz fakat daha önceden kullanıcıya herhangi bir role atanmadığı için bu uyarıyı veriyor. Local admin ile ilglil kullanıcıya role tanımladığınızda GUI ona göre açılacaktır.

Bölüm 8: http://www.fatlan.com/ovirt-rhev-4-2-engine-ssl-yapilandirma-bolum-8/

Ovirt/RHEV 4.2 Engine Network(NIC) Infrastructure Ekleme ve Yapılandırma – Bölüm 6

İlk bölümdeki görselde, ağ alt yapısını tasarlamıştık ve bu tasarımda network alt yapısını da belirtmiştik. O bölümü hatırlatarak işlemlere devam edelim.

Tasarımda 4 ayrı NIC kullandık;

1. Network interface “management

2. Network interface “storage

3. Network interface “hostnet

4. Network interface “migration

managemetinterface’sini sunucuları kurarken, yönetmek için atamıştık zaten. Ardından sunucuların storage erişmesi, iscsi ve nfs kullanacağımız için nic’in birini de host’ta “storageinterface’sini tanımlayıp erişimlerini yaptık ve storage diskleri ekledik. Yapımızda iscsi ve nfs vlan ağında olduğundan fiziksel interface’ye “storage_iscsi” ve “storage_nfs” adından iki mantıksal vlan interface’yi oluşturduk. Aslında nfs’i vlan olarak Engine tarafında da yapabilirdik fakat iscsi kısmı yapmak zorundayız ki storage’deki lun‘ları host’lara disk olarak ekleyebilelim ve Engine’yi kurabilelim. Engine host üzerinde yapılandırılan networkler üzerinden de erişim sağlayabilir. Bu arada host tarafında nic’leri bonding, vlan ve bridge olarak’ta tanımlayıp kullanabilirsiniz. Aynı şekilde Hosted Engine’de de bonding, vlan yapabiliriz.

hostnet” ve “migrationnic‘lerini Hosted Engine tarafında şimdi beraber yapılandıracağız. “hostnetVM’lerin internete çıkışı ve birbiriyle iletişimi için, “migration”da Vm makineleri hostlar arasında taşıma/göç ettirme için kullanacağız.

Önemli NOT : Bonding hakkında. Bonding yapılandırması host/sunucu tarafında ayrı, Hosted Engine tarafında ayrı fiziksel NIC’ler için yapılandırmalıdır. Çünkü host tarafında yapılandırılan bonding’i Engine görebiliyor ve gösterebiliyor fakat eklediğiniz mantıksal interface’leri atama yaptığınızda kullanmanıza izin vermeyip, eklerken hata veriyor. Kısaca ilgili NIC’ler için host tarafında yapılandırma olduğu için kullanmanıza izin vermiyor. Bu yüzden Engine’de bonding kullanacaksanız ki Engine’de sağ klik ile çok basit bir şekilde eklenebiliyor, ilgili fiziksel nic’lere host tarafında herhangi bir yapılandırma yapılmamış olması gerekiyor. Ben başka bir yapılandırma için iki fiziksel nic’i Engine tarafında XOR protokolü kullanarak çok basit bir şekilde yapılandırarak, esnek bir yapı elde ettim.

Şimdi “hostnet” ve “migrationnic‘lerini Hosted Engine tarafında tek tek yapılandırıp kullanıma hazırlayalım.

Önce mantıksal nic’lerimizi ekleyelim. Biz ilk önce “hostnet”i ekleyip, aktif edeceğiz. Sonra “migration” interfacesini ekleyip, aktif edeceğiz. Bunun için Engine login olduktan sonra “Network/Networks/New” diyerek ekleme işlemine başlıyoruz.

Ardından ilgili Data Center’ı seçip “Name” kısmına interface ismini verin. Network Parameters kısmında yer alan bilgilerde size uygun olan bilgileri de girmeniz gerekiyor. Biz “hostnet”i VM’lerin çıkış interface’si olarak kullanacağımızdan “VM network” parametresini enable ettik. Belirlediğimiz subnet herhangi bir Vlan’a dahil olmadığı için Vlan tag’ini enable işaretlemedik. Sizin belirlediğiniz subnet switch’leriniz de vlan dahilinde ise bu kısımda vlan numarasını belirlemelisiniz. Son olarak OK tıklayıp, ekleme işlemini bitirin.

Ve oluşturduğunu aşağıdaki gibi görelim. Henüz var olan tüm host‘larımıza tanıtmadığımız için aktif değil ve bu yüzden kırmızı görünüyor.

Şimdi sırasıyla “hostnet”i var olan host’larımıza tanıtalım ve aktif etmiş olalım.

Compute/Hosts” sekmesine geldikten sonra ilk host’umuzun üzerine tıklayıp ayrıntılar kısmına girelim. Oradan “Network Interfaces” sekmesine gelip “Setup Host Networks” butonuna tıklayın.

Ardından aşağıdaki ss’den de anlaşılacağı üzere sağdaki Logical Networks’te görünen “hostnetnic’ini sürükleyip, belirlediğiniz ilgili fiziksel nic’e bağlayın.

Yukarıdaki siyah kutucukta görünen kalem işaretini tıkayın ve aşağıdaki gibi ip yapılandırma penceresine gelin, ip yapılandırdıktan sonra,

DNS Configuration sekmesine gelin ve dns ip’sini verdikten sonra OK tıklayın.

Şimdi aynı işlemi ikinci host’umuza yapalım, bizde toplamda iki host vardı siz bütün hostlarınızda yapmalısınız. Şimdi ikinci host’umuzda da “Setup Host Networks” butonuna tıklayın.

Aynı şekilde fiziksel nic’e, logical nic’i bağlayın.

Kalem işaretini tıklayıp ikinci host için ip yapılandırmasını yapalım.

DNS yapılandırmasını yapıp, OK tıklayalım.

Ve “Compute/Cluster/Default/Logical Network” bölümünden mantıksal nic’lerimizi listelediğimizde “hostnet”in yeşil yandığını yani aktif olduğunu görebiliyoruz.

Şimdi sıra geldi ikinci mantıksal interface’miz olan “migrationnic’ine. Aynı şekilde “Network/Networks/New” diyerek aşağıdaki gibi nic’i oluşturalım. Bu kısımda “VM networkenable sekmesini tıklamıyorum çünkü bu interface’yi VM’ler çıkış için kullanmayacak. Tabanda Engine VM’leri migration yapmak için bu nic’i kullancağı için “Name” belirleyip OK tıklıyorum.

Tekrar “Compute/Cluster/Default/Logical Network” listelediğimizde “migrationnic’inin geldiğini fakat kırmızı yani aktif olmadığını görelim.

Yukarıdaki ss’lerde gösterdiğimiz gibi yapınızdaki tüm host’ların tek tek “Setup Host Networks” bölümünden, “migrationinterface’sini fiziksel interface’ye bağladıktan sonra aşağıdaki gibi aktif olacaktır.

NoT2 :migrationinterface’si için ip yapılandırması YAPMIYORUZ yani ip vermiyoruz.

Aslında şu anda nic ekleme işleminiz tamamlandı fakat bu nic’ler için roller atayacağız. Bu roller ilgili logical nic’lere belirli özel iş yükleri atayacak. Şöyle ki “Compute/Cluster/Default” bölümünden “Logical Networks” sekmesine gelin ve aşağıdaki görselden de anlaşılacağı üzere ”Manage Networks” tıklayın.

Ardından aşağıdaki ss’den de anlaşılacağı üzere logical nic’lerimize spesifik roller atayalım. Migration Network rolünü “migrationinterface’sine, Default Route olarak ben “hostnet” kullanmak istediğimden ona atıyorum, diğer iki rol management interface‘sinde kalabilir. OK deyip işlemleri bitiriyorum.

Son olarak nic’leri “Compute/Cluster/Default/Logical Network” listelediğimde nic’lere atanmış rolleri de görebiliyorum. İşlem bu kadar.

NoT3 : Evet işlemlerimiz bitti fakat nic’lerimizin tüm host’larda sağlıklı bir şekilde çalıştığından emin olmak yani sync olduğunu görmek için “Network/Networks/hostnet” bölümü Hosts sekmesi ve “Network/Networks/migration” bölümü Hosts sekmesinden aşağıdaki ss’lerde işaretlediğim kırmızı alanda “Out-of-sync” kısmının aşağıdaki gibi tertemiz olması lazım, aksi halde zaten orada kırmızı bir işaretçi çıkıp size bir sorun olduğunu söylecektir. Böyle bir durumda network yapılandırmalarınızı gözden geçirin, eğer bir sorun yoksa “Sync All Networks” butonunu kullanın.

Bölüm 7: http://www.fatlan.com/ovirt-rhev-4-2-engine-ldap-yapilandirma-bolum-7/

Ovirt/RHEV 4.2 Kurulumu Hostların Power Management Yapılandırması – Bölüm 3

Hostları ekleme sırasında son kısımlarda aldığımız power management uyarısını bu bölümde ele alacağız. Power management yapılandırması hostlar için ilo ekranına yada host’un konsol ekranına düşmeden kapatıp, açma ve yeniden başlatma gibi özellikleri kazandıracak agent’ı(fences agent) aktif edeceğiz.

Aşağıda görüldüğü üzere hostları listelediğimizde üzerlerinde ünlem(!) işareti var ve power management’ın yapılandırılmadığı uyarısını veriyor.

Şimdi hostları tek tek seçip “Edit” tıklıyoruz. Ardından “Enable Power Managementcheck ettikten sonra, “Add Fence Agent” kısmındaki artı işaretine tıklıyoruz.

Daha sonra sunucuların (ilo, idrac, BMC vs.) ip adresi, kullanıcı ve şifre bilgisini yazıyoruz. Ben “Type” olarak “ipmilan” ile yapılandırıyorum, “option” kısmına da “lanplus=1key value’sini verip, bağlantıyı “Test” ediyorum ve başarılı olduğunu görüyorum. OK ile işlemi tamamlıyorum.

 

Son durum aşağıdaki gibi, OK diyerek tamamlıyorum.

İşlem bu kadar. Artık hostları listelediğinizde ünlem işareti olmayacak ve host için power seçenekleri aktif olacak.

Bölüm 4 : http://www.fatlan.com/ovirt-rhev-4-2-kurulumu-hostlara-iscsi-lun-ekleme-bolum-4/

KVM – qcow2 Disk Dosyası Boyutunu Küçültme (Reduce – Shrink Qcow2 Disk Files)

Şimdiki yazımızda KVM hipervisor katmanında guest’ler(vm – sanal makineler) için başınıza gelebilecek bir durumdan bahsedeceğiz. Malumunuz KVM hostlarınızda disk dosyalarınız(qcow2) diskte belli bir alanı kaplamaktadır. Fakat zamanla guestteki disk alanı hosttaki barındığı disk alanını doldurup hatta üzerinede çıkabilmektedir. Aslında VM diski filesystem tabanında düzenli alanlarla kullanmadığı yada dağınık yazdığı için yani bu durum adreslemeyle alakalı; dolu göstermektedir. Aslında windows’ta defrag yöntemi gibi diyebiliriz. Bu durumda sanal makine otomatik olarak “Pause” duruma düşecek ve hizmet veremeyecek duruma gelecektir. Bu duruma düşmeden yada düştükten sonra aşağıdaki yöntemlerle qcow2 disk dosyalarını boyutunu hipervisor katmanında aslında kullanılmadığı halde kullanıyor gibi gösterdiği alanları yeniden düzenleyerek küçültecektir.

İlk yöntem olarak “virt-sparsify” komutunu kullanarak etkili ve verimli bir şekilde disk dosyanızın boyutunu küçültebilirsiniz.

NoT1 : “virt-sparsify” komutunu kullanabilmek için libguestfs-tools paketini öncesinde kurmalısınız.

NoT2 : İşlemleri vm kapalıyken yapın.

İşlem yapılmadan önce aşağıdaki komutla disk dosyasının boyutunu görelim.

> du -ha

Ardından “virt-sparsify” komutu ile istediğimiz küçültme işlemini gerçekleştirelim.

> virt-sparsify –in-place diskdosyanız.qcow2

Daha sonra tekrar “du -ha” komutunu çalıştıralım ve boyuttaki azalmayı görelim.

Ikinci yöntem olarak gene “virt-sparsify” komutunu convert yöntemi ile kullanalım.

> virt-sparsify diskdosyanız.qcow2 –convert qcow2 yeniisimdiskdosyanız.qcow2

Sonra “du -ha” komutu

Son olarak üçüncü yöntem ise,

Aşağıdaki yöntem ile Guest’in içinde “dd” komutu kullanarak kalan boş alana “zero” basıyoruz.

> dd if=/dev/zero of=/MyDump

Daha sonra MyDump dosyasını siliyoruz.

> rm -f /MyDump

Son olarak “qemu-img” komutu ile işlemi gerçekleştiriyoruz ama öncesinde fırsatınız varsa disk dosyasının yedeğini almanızda fayda var.

> qemu-img convert -O qcow2 ilgilidosyaismi.qcow2 yeni_ilgilidosyaismi.qcow2

Kaynaklar

http://libguestfs.org/virt-sparsify.1.html

https://pve.proxmox.com/wiki/Shrink_Qcow2_Disk_Files

Linux KVM Backup and Restore

Aşağıdaki yönergeleri izleyerek KVM sanallarınızı yedekleyebilir ve yedekten geri dönebilirsiniz.

1. Backup

İlk önce makinelerimizi listeleyelim ve çalışır vaziyette olduğunu görelim.

> virsh list –all

Daha sonra yedekleyeceğimiz vm’i kapatalım.

> virsh shutdown Ubuntu18

Ardından makineleri tekrar listeleyelim ve kapalı olduğunu görelim.

> virsh list –all

Şimdi makineyi (XML dosyasını) aşağıdaki komut/yöntem ile yedekleyelim.

> virsh dumpxml Ubuntu18 > /MyBackup/Ubuntu18.xml

yada

default ta XML lerin tutulduğu “/etc/libvirt/qemu” dizinin altından ilgili XLM’i ilgili backup dizinine cp komutu ile kopyalayabilirsiniz.

Şimdi de disk dosyasını (qcow2) aşağıdaki komut/yöntem ile yedekleyelim.

qcow2 formatındaki disk dosyasını da /MyBackup altına kopyalayalım. Disk dosyalarının default ta tutulduğu yer “/var/lib/libvirt/images/” altındadır.

yada

> virsh domblklist Ubuntu18 komutu ile nerde olduğunu görebilirsiniz. İlgili yerden cp yada scp (remote) komutu ile backup klasörünüze kopyalayabilirsiniz.

> cp /var/lib/libvirt/images/Ubuntu18.qcow2 /MyBackup/Ubuntu18.qcow2

Listeleyip tüm yedeklerimizi görelim.

> ls -lash

NoT: Backup işlemini makineleri kapatmadan da yapabilirsiniz fakat oluşabilecek hatalara yada veri kaybına karşın, kapatıp yapmak sağlıklı olacaktır. Tabi illaki makinenin hizmet kesintisi olmaması gerekiyorsa, dediğim gibi vm açıkkende backup alabilirsiniz.

2. Restore

Şimdi yedekten geri dönme senryosunu uygulayalım. Bunun için XML’i silebilir yada undefine edebilirsiniz.

> virsh undefine Ubuntu18

yada

Sunucu özelliklerinin barındığı XML dosyası silinmiş olsun ve listelediğimizde makinenin gittiğini görebiliyoruz.

> virsh list –all

Şimdi senaryoyu gerçekleştirmek için disk (qcow2) dosyasını silelim.

> rm /var/lib/libvirt/images/Ubuntu18.qcow2

Ve senaryo uygulamasına başlayabiliriz. Hemen backup aldığımız yerden diskin (qcow2)’un olması gereken yere kopyalama işlemine başlayalım.

> cp /MyBackup/Ubuntu18.qcow2 /var/lib/libvirt/images/

Diskin kopyalama işlemi bittikten sonra makine özelliklerinin olduğu XML dosyasını aşağıdaki komut/yöntem ile kullanabilir hale getirelim.

> virsh define –file /MyBackup/Ubuntu18.xml

yada

Sunucu özelliklerinin barındığı XML dosyası bulunduğu dizine tekrar kopyalanmış olsun.

Ardından vm’i başlatarak işlemi tamamlayalım.

> virsh start Ubuntu18

How to install KVM on Ubuntu 16 – Ubuntu üzerine KVM kurulumu, Yapılandırması ve Sanal Makine oluşturulması

KVM Çekirdek tabanlı sanal makine Linux çekirdeği için geliştirilen ve onu bir üstsisteme dönüştüren bir sanallaştırma altyapısıdır.

Kurulumdan önce sunucumuza login olup, cpu muzun destekleyip desteklemediğini anlamak için aşağıdaki komutlar yardımıyla cpu bilgilerini kontrol edelim.

Bu komutun çıktısı olarak “CPU(s):” değeri 0 ise dekteklemiyor, 1 veya 1 den fazla bir değer ise destekliyor manasına gelir.

> egrep -c ‘(svm|vmx)’ /proc/cpuinfo

yada

> lscpu

Aşağıdaki komutla da çekidek modüllerinin yüklü olup, olmadığını kontrol edebilirsiniz.

> lsmod | grep kvm

Şimdi kuruluma geçebiliriz. Aşağıdaki komut ile gerekli tüm paketleri kurup, KVM ortamımızı hazır hale getirelim.

> sudo apt-get install qemu-kvm libvirt-bin bridge-utils virt-manager

Yukarıdaki kurulum komutundan sonra sorunsuz bir kurulum gerçekleştiğini, aşağıdaki komutla doğrulayın.

> kvm-ok

Ardından sunucuyu reboot edin.

> brctl show komutuyla da sonradan gelen sanal interface(NIC) i görüntüleyebilirsiniz.

Default’ta Virtual Machine(qcow2) lerin saklandığı dizindir.

/var/lib/libvirt/images/

Not1 : Eğer qcow2 formatında ki diskin yerini bilmiyorsanız aşağıdaki komut(komut ilgili vm in disklerini bulunduğu dizin ile beraber listeler) size nerde olduğunu söyleyecektir.

> virsh domblklist Ubuntu18

Default’ta Virtual Machine images lar için, kurulum iso larının saklandığı dizindir.

/var/lib/libvirt/boot/

Default’ta Virtual Machine özelliklerinin(ram,cpu,disk vs.) xml formatında tutulduğu yerdir.

/etc/libvirt/qemu

Not2 : Aşağıdaki komut ise ilgili makinanın xml formatında tutulduğu özellikleri(ram,cpu,disk vs.) ekrana bastırır.

> virsh dumpxml Ubuntu18

Aşağıdaki iki komutla da mevcuttaki sanal makinaları görüntüleyebilirsiniz.

> virsh -c qemu:///system list

yada

> virsh list –all

Virtual Machine lerinizi GUI olarak yönetmek, oluşturma ve silme gibi işlemler için virt arayüzünü kullanabilirsiniz. Komut aşağıdaki gibidir.

NoT3 : Bunu yapabilmek için öncesinde sunucuya ssh bağlantısı yaparken, -X parametresini kullanarak bağlanmalısınız(ssh -X root@192.168.1.100). Ayrıca Windows (Putty de x11 enable edilmelidir) için Xming uygulaması, Mac için ise Xquartz uygulaması kurulu ve çalışır olması gerekiyor.

NoT4 : Bu arada bir bilgi daha vermem gerekir. Eğer Linux kullanıcısı iseniz yani client makinanız Linux ise sunucuya virt-manager paketini kurmadan, client makinanızda virt-manager var ise ordan File-Add Connection diyerek sunuya bağlanıp yönetebilirsiniz.

> sudo virt-manager

Yada sunucuya ait konsolu direk olarak aşağıdaki komutla alabilirsiniz.

NoT5 : Bunu yapabilmek için öncesinde kullanıcı makinasına virt-viewer paketini kurmalısınız(ubuntu/debian için ’apt install virt-viewer’, Redhat/CentOS için ‘yum install virt-viewer’).

> sudo virt-viewer -c qemu:///system Ubuntu18

Komutlar aracılığı ile sunucuyu yönetimi için aşağıda bir kaç komut paylaşacağım.

Sunucuyu başlatır.

> virsh start Ubuntu18

Sunucuyu kapatır.

> virsh shutdown Ubuntu18

Sunucuyu yeniden başlatır.

> virsh reboot Ubuntu18

Sunucunun özelliklerini değiştirmek için kullanılır(xml dosyasını değiştirir).

> virsh edit Ubuntu18

Sununun barındığı host açıldığında, bu vm de otomatik olarak başlatma seçeneğidir.

> virsh autostart Ubuntu18

Sununun barındığı host açıldığında, bu vm de otomatik olarak başlatma seçeneğini devre dışı bırakır.

> virsh autostart –disable Ubuntu18

Şimdi “virt-install” komtuna bakalım, bu komut aracılığı ile komut satırı üzerinden makine oluşturabilirsiniz. Alltaki komutta örnek komut ile bu işlemi sağlayabilirsiniz. Ben bir çok parametreyi kullandım ama siz tüm parametleri kullanmak zorunda değilsiniz. Zaten kullanmadığınız parametreler yerine default değerler atanacaktır. Tabi sonrasında siz bu değerleri değiştirebilirsiniz. Komutu yürüttükten sonra gui açılıp size kuruluma yönlendirecektir.

> sudo virt-install –virt-type=kvm –name ubuntu-cli –ram 2048 –vcpus=2 –os-variant=Ubuntu16.04 –cdrom=/var/lib/libvirt/boot/ubuntu-18.04-live-server-amd64.iso –network=bridge=eth0,model=virtio –graphics spice –disk path=/var/lib/libvirt/images/ubuntu-cli.qcow2,size=40,bus=virtio,format=qcow2

Şimdi de “virt-clone” komutundan bahsedelim. Adında da anlaşılacağı üzere clone almak için kullanılan komuttur. Kullanımı aşağıdaki gibidir. Fakat vm kapalı durumda iken clone alabilirsiniz, yoksa uyarı verecektir. “Clone ‘Ubuntu18.clone’ created successfully.” uyarısını almalısınız.

> virt-clone –original=Ubuntu18 –name=Ubuntu18.clone –file=/var/lib/libvirt/images/Ubuntu18.clone

Aşağıdaki komut ise vmdk formatındaki bir vm i qcow2 formatına çevirip KVM host unuzda çalıştırmanızı sağlar.

> qemu-img convert -O qcow2 ubuntu.vmdk ubuntu.qcow2

Bir sonraki makalemizde KVM ortamında nasıl yedek alıp sonra aldığımız o yedeği nasıl geri yükleyip, çalışır hale getireceğiz ona bakacağız.