[...]

To content | To menu | To search

Tuesday 19 May 2009

Installare GPFS su Scientific Linux 5.3 a 64 bit

  • yum install
    • kernel-devel
    • kernel-headers
    • gcc-c++
    • compat-libstdc++-33-3.2.3-61.x86_64
    • compat-libstdc++-33-3.2.3-61.i386
    • imake.x86_64
  • rpm -iv rpmfolder/gpfs*3.2.0*rpm
  • updates?
    • controlla su https://www14.software.ibm.com/webapp/set2/sas/f/gpfs/download/systemx.html
    • installa updates con yum install
  • mv /etc/redhat-release /etc/redhat-release.orig && echo "Red Hat Enterprise Linux Server release 5 (Tikanga)" > /etc/redhat-release
  • cd /usr/lpp/mmfs/src/
  • make Autoconfig
  • nano config/site.mcr
  • make World
  • make InstallImages

Abilitare autenticazione LDAP + automount su Scientific Linux 5.3


authconfig --enableldapauth --update"

sed -i s/'base dc=example,dc=com'/'base dc=2levdomain,dc=domain,dc=tld'/g /etc/ldap.conf

sed -i s/'uri ldap:\/\/127.0.0.1\/'/'uri ldap:\/\/ldap.server.hostname\/'/g /etc/ldap.conf

sed -i s/'passwd:     files'/'passwd:     files ldap'/g /etc/nsswitch.conf

sed -i s/'shadow:     files'/'shadow:     files ldap'/g /etc/nsswitch.conf

sed -i s/'group:      files'/'group:      files ldap'/g /etc/nsswitch.conf

sed -i s/'netgroup:   nisplus'/'netgroup:   files ldap'/g /etc/nsswitch.conf

sed -i s/'automount:  files nisplus'/'automount:  files ldap'/g /etc/nsswitch.conf

sed -i s/'URI ldap:\/\/127.0.0.1\/'/'URI ldap:\/\/ldap.server.hostname\/'/g /etc/openldap/ldap.conf

sed -i s/'BASE dc=example,dc=com'/'BASE dc=2levdomain,dc=domain,dc=tld'/g /etc/openldap/ldap.conf

sed -i s/'USELDAP=no'/'USELDAP=yes'/g /etc/sysconfig/authconfig

OpenSSH HostBased auth su Scientific Linux 5.3

autenticazione HostBased aperta per qualsiasi utente


@ client...

  • chmod u+s /usr/bin/ssh
  • in /etc/ssh/ssh_config
    • HostbasedAuthentication yes
    • EnableSSHKeysign yes


@ server...

  • in /etc/ssh/ssh_known_hosts
    • per ogni client una riga del tipo: client,client.dominio,192.168.49.8 + (/etc/ssh/ssh_host_rsa_key.pub da client)
  • in /etc/ssh/sshd_config
    • HostbasedAuthentication yes
    • IgnoreRhosts no
  • in /etc/ssh/shosts.equiv
    • per ogni client...una riga del tipo: "+client.dominio"
  • in /root/.shosts
    • client.dominio root

Friday 9 January 2009

installare scientific linux 52 su iscsi netbsd target

si fa un target iscsi rw con iscsi-netbsd-target

si avvia l;install di SL52, arrivati alla schermata di partizionamento si pigia su "+ Advanced storage configuration", poi "Add iSCSI Target" e "Add drive", si inserisce l'ip del portal, lui dice "initializing iSCSI initiator" e poi...

il nulla

switchando sulla console F2 e digitando:

scsiadm -m discovery -t sendtargets -p <portale> -l

si logga correttamente.

al che tornare alla gui, tornare indietro e poi di nuovo sulla schermata di partizionamento.

i devices appaiono automagicamente e il resto gia si sa.

con il target in kernel space di iET (tgtd) invece, non ci sono problemi.

Tuesday 30 December 2008

iscsi in breve

Bersaglio

sullo storage (scientific linux 5.2) ho installato il target user-space netbsd-iscsi

nel file /etc/iscsi/targets ho scritto:

extent0 /tmp/iscsi-target0    0       1000MB
target0 rw extent0              192.168.165.0/24

praticamente un file da 1000 mega in tmp esportato in rw come target0 verso la tal rete.

ho avviato il target... /usr/sbin/iscsi-target -D

ha risposto:

Reading configuration from `/etc/iscsi/targets' target0:rw:192.168.165.0/24 extent0:/tmp/iscsi-target0:0:1048576000 DISK: 1 logical unit (2048000 blocks, 512 bytes/block), type iscsi fs DISK: LUN 0: 1000 MB disk storage for "target0" TARGET: TargetName is iqn.1994-04.org.netbsd.iscsi-target

Iniziatore

sul client (sempre SL52, macchina virtuale) ho installato iscsi-initiator-utils

ed ho dato /sbin/iscsiadm --login --mode discovery --type sendtargets --portal hostname.o.ip.dello.storage

e lui mi fa:

::ffff:192.167.165.147:3260,1 iqn.1994-04.org.netbsd.iscsi-target:target0
Logging in to [iface: default, target: iqn.1994-04.org.netbsd.iscsi-target:target0, portal: ::ffff:192.168.165.147,3260]
Login to [iface: default, target: iqn.1994-04.org.netbsd.iscsi-target:target0, portal: ::ffff:192.168.165.147,3260]: successful

ottimo.

in /var/log/messages appare

Dec 30 15:18:15 virtest1 kernel: scsi1 : iSCSI Initiator over TCP/IP
Dec 30 15:18:15 virtest1 kernel:   Vendor: NetBSD    Model: NetBSD iSCSI      Rev: 0   
Dec 30 15:18:15 virtest1 kernel:   Type:   Direct-Access                      ANSI SCSI revision: 03
Dec 30 15:18:15 virtest1 kernel: SCSI device sda: 2048000 512-byte hdwr sectors (1049 MB)
Dec 30 15:18:15 virtest1 kernel: sda: Write Protect is off

al che partiziono /dev/sda, formatto e monto

quando ci si e' svagati abbastanza, per sganciare i target: "/sbin/iscsiadm --mode node --logoutall=all"

a breve test di prestazioni

Friday 19 December 2008

di come tagliarsi fuori dalle macchine

Un ottima modo e' tentare un upgrade di gentoo

[ebuild U ] sys-fs/e2fsprogs-1.41.2 [1.40.9]
[ebuild N ] sys-libs/e2fsprogs-libs-1.41.2 USE=”nls”
[blocks B ] sys-libs/ss (is blocking sys-libs/e2fsprogs-libs-1.41.2)
[blocks B ] <sys-fs/e2fsprogs-1.41 (is blocking sys-libs/e2fsprogs-libs-1.41.2)
[blocks B ] sys-libs/com_err (is blocking sys-libs/e2fsprogs-libs-1.41.2)
[blocks B ] sys-libs/e2fsprogs-libs (is blocking sys-libs/ss-1.40.9, sys-libs/com_err-1.40.9)

per poi proseguire disinstallando librerie a caso e quindi bestemmiare con metodo e fantasia!

All'apice del rogo iconoclastico, digitare :

emerge -auDNv –fetchonly world
emerge -C ss com_err
emerge -auDNv –oneshot e2fsprogs-libs e2fsprogs
emerge -auDNv world

Si lascia al lettore provare che il livello di eresia scende rapidamente fixando il bug.

Tratto da un blog e dalle sue fonti

di dischi Samsung F1 HD103UJ su Areca ARC-1260

oggi ho installato 4 dischi da 1 T sul nas, riempiendo il controller raid areca da 16 porte. i dischi vengono correttamente riconosciuti e configurati dal raid_bios, ma quando li si formatta vanno sistematicamente in scsi timeout in tre o quattro punti fissi del disco. penso a un problema di geometrie, ma da specifiche non dovrebbero esserci problemi. e il punto non e' sempre lo stesso. cambiando l'ordine dei dischi, lo slot nel backplane, i cavi e aggiornando il firmware la situazione non cambia e mi convinco che il problema e' di incompatibilita tra il controller e i dischi

indagando tra le pagine cachate di google (il sito di supporto tecnico di areca non riesce a connettersi al server mysql (!)) scopro questa lista di compatibilitta con gli HD, nella quale leggo che la fortuna e' cieca e la sfiga usa un radiointerferometro per colpirti.

Come suggerito lo passo dalla modalita SATA300+NCQ(Depth32) alla SATA300. Togliendo l'NCQ il disco funziona perfettamente anche se con performances in scrittura pessime.

Da sofisticati (dd di dev zero da 2 giga...) test di scrittura sequenziale risulta che TUTTI i dischi in array vanno a un quarto con l'NCQ spento. ad esempio, sul controller di cui sopra, dei Seagate da mezzo TB fanno 80MBps con NCQ acceso e 19 con NCQ spento. strano.

Wednesday 17 December 2008

Mips

Se non ci sono gatti, non e' un blog. Questo e' pure con un set di istruzioni ridotto

Wednesday 10 December 2008

bridge tra host fisico e guest kvm

si crea un br sull'host e gli si da le impostazioni per la connettivita' esterna
si aggancia la eth fisica dell'host al br

su fedora si modificano /etc/sysconfig/network-scripts/ifcfg-br0 e ifcfg-eth0

sui guest la eth viene aggregata al br

le immagini raw di kvm e xen

i file img di tipo raw usati da kvm e xen si possono associare a dei device loop con losetup
se sono partizionati al loro interno, per mappare la tabella delle partizioni si usa kpartx.
i devices montabili corrispondenti alle partizioni si trovano poi in /dev/mapper/loopdevice/partizione

volgarmente...

IMG=$1
EXPECTED_ARGS=1
E_BADARGS=65

if [ $# -ne $EXPECTED_ARGS ]
then
        echo "Mappa su loop un file image raw. Uso: `basename $0` file.img"
  exit $E_BADARGS
fi

NXTDEV=`/sbin/losetup -f`
/sbin/losetup $NXTDEV $IMG
/sbin/kpartx -av $NXTDEV
/bin/ls -alF /dev/mapper
DEV=$1
EXPECTED_ARGS=1
E_BADARGS=65

if [ $# -ne $EXPECTED_ARGS ]
then
  echo "DeMappa un loop device. Uso: `basename $0` /dev/device"
  exit $E_BADARGS
fi

/sbin/kpartx -dv $DEV
/sbin/losetup -d $DEV
/bin/ls -alF /dev/mapper

la rete di livirt(d)

libvirtd, senza chiedere nulla a nessuno, pensa bene di allestirsi la sua lan casalinga pacioccosa...

nel modo di default, 'virtual network'...

  • alza un bridge (virbr0) con una classe privata
  • avvia un dnsmasq(!) bindato sul bridge che rilascia indirizzi nella classe privata
  • imposta il nat + forward dal bridge verso fuori
  • aggancia l'interfaccia virtuale di ogni vm al bridge.

In generale, si comporta in questo modo e salva la roba in /etc/libvirt/qemu/networks/default.xml (e questo ? /usr/share/libvirt/networks/default.xml ??? mah.) con questo formato