Clique abaixo para nos ajudar
Login

Esqueci minha senha

Estamos no Facebook
Buscar
 
 

Resultados por:
 


Rechercher Busca avançada

Quem está conectado
10 usuários online :: Nenhum usuário registrado, Nenhum Invisível e 10 Visitantes

Nenhum

[ Ver toda a lista ]


O recorde de usuários online foi de 468 em 1/3/2012, 10:43
Como preencher campos vazios

9/2/2017, 11:55 por Linghston

Pessoal boa tarde,

É o seguinte, eu preciso preencher os campos de uma coluna da tabela DBF que …

Comentários: 2

Enviar msg para WhatsAPP via VFP

7/2/2017, 10:31 por Eliana

Olá Pessoal!

Alguém sabe se é possível enviar mensagem para o WhatsAPP via VFP?


Grata


Comentários: 0

Tudo dá errado

3/2/2017, 16:50 por Douglas Pascini

Troquei de maquina, achei que seria uma boa, [Você precisa estar registrado e conectado para ver esta imagem.]  pois passei para uma maquina melhor.

Instalei o …

Comentários: 1

URGENTE - Instalação do aplicativo

24/1/2017, 08:51 por Douglas Pascini

Bom dia. Estou com um problema, ao fazer a instalação (colocar os arquivo) do aplicativo na …

Comentários: 0

USAR REPORT FORM

30/12/2016, 09:06 por AJC

Pessoal bom dia,
Estou com um grande problema, já pesquisei muita coisa sobre report form, mas o …

Comentários: 3

Estatísticas
Temos 7022 usuários registrados
O último usuário registrado atende pelo nome de Cicero Reis

Os nossos membros postaram um total de 21 mensagens em 12 assuntos

Cluster HearthBeat com Suse 10

Ver o tópico anterior Ver o tópico seguinte Ir em baixo

Cluster HearthBeat com Suse 10

Mensagem por hugo em 8/1/2010, 18:32




Heartbeat significa batimento cardíaco. Esse termo é usado para definir os pulso enviados entre dois computadores que indicam que estão vivos, ou seja, estão funcionando e disponíveis para executar tarefas.

O Heartbeat trabalha enviando pulso entre dois servidores através de uma porta serial, um placa de rede ou ambas. Se o pulso falhar, o servidor secundário irá assumir que o servidor primário falhou e tomar os serviços que estavam rodando no servidor primário.

O Heartbeat define um endereço IP para o cluster, que deve ser diferente dos endereços IP dos servidores primário e secundário, e que será o endereço IP procurado pelos clientes. O servidor que esta ativo, não importa se for o primário ou o secundário assumirá o endereço do cluster.
Creditos:
Saraiva Digital
Talmeida

Alta disponibilidade com SuSE 10 Enterprise Server SP2

Objetivo / componentes / ambiente

Objetivo
Criação de um cluster de alta disponibilidade do tipo ativo/ativo em ambiente Linux baseado na distribuição SuSE 10 Enterprise Server SP2. O cluster primário será batizado com o nome de Torrenorte e o secundário Torresul. O servidor Torrenorte será responsável pelo Samba, sendo utilizado como servidor de arquivos e o Torresul pelo Firebird, sendo utilizado como servidor de banco de dados.

Componentes
Vamos entender quais os componentes necessários para funcionar nosso cluster. Precisamos do serviço de heartbeat, que é o serviço responsável para monitorar os dois clusters. Através de uma ou mais interfaces dedicadas de rede, o heartbeat envia um pulso para cada servidor do cluster para checar se está on-line, caso uns dos servidores do cluster não responda a esse pulso, o heartbeat declara que o servidor está parado e inicializa os serviços deste servidor parado no outro servidor que está funcionando.
O heartbeat monitora o cluster e é o próprio responsável em iniciar os serviços como Samba e Firebird.

Outro componente fundamental é o DRBD, ele fica responsável em replicar as informações de um disco para o outro via rede. Por exemplo, temos o disco /storage montado no servidor Torrenorte, enquanto este trabalha o drbd replica os dados no mesmo disco no servidor Torresul, só que neste servidor ele não fica visível. Caso Torrenorte venha a falhar e cair, o heartbeat entra em ação e monta o disco /storage no servidor Torresul, assim mantendo o serviço funcionando.

Um recurso interessante que usaremos em nosso cluster é o Channel Bonding (Rede Vinculada). Através de duas ou mais interfaces de rede temos uma união de canal, assim além de alta disponibilidade de interface, também temos balanceamento de carga. No nosso caso o Bond será usado exclusivamente para o heartbeat e o DRBD. Ele propicia uma segurança a mais em nosso cluster, protegendo-o contra o problema de Split Brain (interface de monitoramento é rompida com o cluster funcionando, ocasionando uma parada crítica no sistema!).

Ambiente
Abaixo temos uma figura como o esquema de nosso cluster.


2 servidores usando Linux SuSE 10 Enterprise SP2;
3 placas de rede em cada servidor, eth0, eth1 e eth2. A placa eth0 é usada para a LAN/Rede Local e as placas eth1 e eth2 são ligadas através de cabo cross-over para uso exclusivo da comunicação e replicação do cluster, eth1 do servidor Torrenorte é conectada com o eth1 do servidor Torresul, assim também com o eth2;
3 discos rígidos em cada servidor.

Servidor Torrenorte:
Serviços: heartbeat, drbd, mon, smb
Rede local: Eth0 = 172.27.0.1 máscara 255.255.0.0
Rede cluster: Bond0 = 10.27.1.101 máscara 255.255.255.0
IP virtual: 172.27.1.101 máscara 255.255.0.0
Disco Drbd: /dev/drbd0
Ponto de montagem: /storage

Servidor Torresul:
Serviços: heartbeat, drbd, mon, firebird
Rede local: Eth0 = 172.27.0.2 máscara 255.255.0.0
Rede cluster: Bond0 = 10.27.1.102 máscara 255.255.255.0
IP virtual: 172.27.1.102 máscara 255.255.0.0
Disco Drbd: /dev/drbd1
Ponto de montagem: /database

continua...


Última edição por hugo em 12/1/2010, 16:01, editado 8 vez(es)

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 8/1/2010, 18:45

Preparação

Bem, não vou ensinar instalar o SUSE, mas aqui vão algumas dicas que podem ser aplicadas durante a instalação, lembrando que todas configurações devem ser iguais nos dois clusters.

Créditos:
Autor: Saraiva Digital


Esquema de partição:



Neste servidor o Torrenorte está utilizando 3 discos de 10GB.

Disco 1:
/dev/sda1 = 1GB SWAP
/dev/sda2 = 1 GB Metadados partição usada para Drbd não é montada = Reiserfs
/dev/sda3 = 7.9 GB Partição / = Reiserfs

Disco 2:
/dev/sdb1 = /storage = XFS não precisa montar durante a criação, pois será montado pelo heartbeat.

Disco 3:
/dev/sdc1= /database = XFS não precisa montar durante a criação, pois será montado pelo heartbeat.

Pacotes selecionados durante a instalação:



Esquema das interfaces de rede:


Neste servidor o Torrenorte está utilizando 3 placas de rede: eth0, eth1, eth2.
Eth0 - rede local IP 172.27.0.1
Eth1 e eth2 - interfaces usadas para Channel Bond (Rede Vinculada)

Configurar as interfaces eth1 e eth2 sem endereço IP, como na figura abaixo:



Rede Vinculada = bond0 = 10.27.1.101

Para criar a Rede Vinculada durante a instalação, na tela "Resumo de configurações de Placa de Rede", clique no botão "Adicionar" e escolha "Rede Vinculada" dentro de "Tipo de Dispositivos":




E depois de avançar, coloque o IP estático e em "Opções de Driver de Vínculo" escolha Mode=balance-rr.


A rede vinculada ainda não está pronta, temos que fazer alguns ajustes manuais para funcionar.

Após o término da instalação, vamos instalar mais alguns pacotes necessários através do modo gráfico. Entre no YaST e clique em "Gerenciamento de Software", em seguida, em pesquisa digite "drbd" e marque as duas opções, como na figura abaixo:


continua...


Última edição por hugo em 11/1/2010, 16:14, editado 3 vez(es)

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 11/1/2010, 09:25

Configuração

Creditos:
Autor: Saraiva Digital

Daqui pra frente, antes de configurar o que está faltando, é interessante que o cluster secundário (o torresul) já esteja instalado corretamente e com os pacotes instalados até esse ponto, pois a medida em que vamos configurando estamos testando alguns serviços. Se o torresul ainda não tiver pronto, termine de instalá-lo e prossiga a partir desse ponto, enjoy!

Channel Bonding
Vamos terminar de configurar o Channel Bonding (Rede Vinculada). Entre na pasta /etc/sysconfig/network e edite o arquivo ifcfg-bond0.

Adicione as seguintes linhas no final do arquivo, como marcado na figura abaixo:



Agora salve e reinicie o serviço de rede com:

# service network restart

e repare que o bond0 já vai subir vinculando a eth1 e eth2 à ele:




Para ter certeza que está correto, verifique através do comando "ifconfig" se as interfaces eth1 e eth2 tem o mesmo mac do bond0. Veja:


Faça a mesma coisa no servidor torresul, estando os dois servidores configurados, no servidor torrenorte pingue o ip do bond do torresul:

$ ping 10.27.1.102

e no servidor torresul abra o iptraf e verifique se o ping alterna entre a interface eth0 e eth1, como na figura abaixo:


Pronto, agora temos alta disponibilidade e balanceamento de carga, mesmo se uma das interfaces de rede falhar o Bond continua funcionando. Se quiser fazer um teste, mantenha pingando e ainda com o iptraf monitorando, tire o cabo fisicamente da placa de rede eth1 e veja que o ping continua na eth2. Agora faça ao contrário, coloque a eth1 de volta e retire o cabo da eth2, você estará vendo a alta-disponibilidade em ação.

continua...


Última edição por hugo em 11/1/2010, 16:14, editado 3 vez(es)

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 11/1/2010, 09:46

Preparando o ambiente e configurando DRBD

Créditos:
Autor: Saraiva Digital

Preparando o ambiente

Alguns ajustes devem ser feitos para que o cluster funcione perfeitamente. Devemos criar ou alterar algumas configurações, sempre lembrando que tudo deve ser criado igual nos dois servidores.

# mkdir /storage
# mkdir /database
# mkdir /logs
# vi /etc/hosts


Configure o arquivo hosts como na figura acima.


Configurando DRBD

Antes de configurar o DRBD vamos conferir se as partições estão corretas. Digite:

# fdisk -l


Conferindo:
/dev/sda2 - partição usada para metadados do DRBD;
/dev/sdb1 - partição que será usada pelo dispositivo /dev/drbd0 que montar /storage;
/dev/sdc1 - partição que será usada pelo dispositivo /dev/drbd1 que montar /database.

Agora vamos configurar o nosso drbd.conf:

# vi /etc/drbd.conf

Código:

# <<Configuração do DRBD>>
# [Configuração do Disco /storage]

resource r0 {
  protocol  C;
  incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f";
  startup { wfc-timeout 0; degr-wfc-timeout    120; }
  disk { on-io-error detach; }
  syncer {
      rate    50M;
      group  1;
  }

  on torrenorte {
      device  /dev/drbd0;
      disk    /dev/sdb1;
      address 10.27.1.101:7791;
      meta-disk    /dev/sda2[0];
  }
  on torresul {
      device  /dev/drbd0;
      disk    /dev/sdb1;
      address 10.27.1.102:7791;
      meta-disk    /dev/sda2[0];
  }
}

# [Configuração do Disco /database]

resource r1 {
  protocol  C;
  incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f";
  startup { wfc-timeout 0; degr-wfc-timeout    120; }
  disk { on-io-error detach; }
  syncer {
      rate    50M;
      group  1;
  }

  on torrenorte {
      device  /dev/drbd1;
      disk    /dev/sdc1;
      address 10.27.1.101:7792;
      meta-disk    /dev/sda2[1];
  }

  on torresul {
      device  /dev/drbd1;
      disk    /dev/sdc1;
      address 10.27.1.102:7792;
      meta-disk    /dev/sda2[1];
  }
}

Terminando de editar o drbd.conf, vamos copiá-lo para o outro servidor digitando o comando:

# scp /etc/drbd.conf 10.27.1.102:/etc/

Vá até o servidor torresul e confira se o drbd.conf está correto. Inicie o drbd nos dois servidores utilizando o comando:

# service drbd start

Assim que iniciar, digite o comando:

# cat /proc/drbd

Se estiver certo deve aparecer como na figura abaixo, onde 0 é o drbd0 e 1 é drbd1. O status inicial vai iniciar como Secondary/Secondary e Inconsistent.



Agora precisamos setar a primeira replicação. Como nosso servidor torrenorte vai ser o drbd0 primário e o torresul secundário e no servidor torresul o drbd1 será o primário e o torrenorte o secundário, então devemos setar isso através dos comandos:

Servidor torrenorte:

# drbdsetup /dev/drbd0 primary --do-what-I-say

Servidor torresul:

# drbdsetup /dev/drbd1 primary --do-what-I-say

Em seguida digite o comando:

# watch -n 1 cat /proc/drbd

em cada servidor. Neste ponto será mostrado o processo de replicação entre os servidores, como na figura abaixo:


Na figura acima o drbd0 está primário/secundário e o drbd1 secundário/primário. Assim que terminar a replicação veja que o status dos discos estarão consistentes como na figura abaixo:



O próximo passo é formatar a partição drbd:

Servidor torrenorte:

# mkfs.xfs -f /dev/drbd0

Servidor torresul:

# mkfs.xfs -f /dev/drbd1




Vamos fazer alguns testes manuais para checar se nosso drbd está correto. No servidor torrenorte monte o disco drbd0 em /storage.

Servidor torrenorte:

# mount /dev/drbd0 /storage

Servidor torresul:

# mount /dev/drbd1 /database

Em seguida digite "df -h" nos dois servidores para ver se está corretamente configurado, como na figura abaixo:





Para comprovarmos se está replicando, crie um arquivo de teste em cada servidor digitando:

Servidor torrenorte:

# touch /storage/teste1

Servidor torresul:

# touch /database/teste2

Com arquivo criado, vamos transferir o disco /storage para o servidor torresul e o disco /database para o torrenorte. Primeiro temos que desmontar os discos.

Servidor torrenorte:

# umount /storage
# drbdadm secondary r0

Servidor torresul:

# umount /database
# drbdadm secondary r1

Com tudo desmontado digite "cat /proc/drbd" e o status nos dois servidores tem que estar como Secondary/ Secondary. Veja na figura abaixo:


Vamos inverter as coisas montado /storage em torresul e /database em torrenorte. Digite a sequência de comandos:

Servidor torrenorte:

# drbdadm primary r1
# mount /dev/drbd1 /database

Servidor torresul:

# drbdadm primary r0
# mount /dev/drbd0 /storage

Em seguida digite "df -h" nos dois servidores para verificar a inversão, como na figura abaixo:




Verifique se os arquivos criados foram replicados:

Servidor torrenorte:

# ls -l /database

Servidor torresul:

# ls -l /storage

DRBD pronto e funcional! Agora precisamos configurar o heartbeat, pois ele será responsável em montar e desmontar os discos do DRBD de forma automatizada. Antes de prosseguir, desmonte as partições /database e /storage nos servidores e volte o estado dos dois para Secondary / Secondary. O jeito mais rápido é, após desmontar os discos, parar o serviço de drbd nos dois servidores digitando:

# service drbd stop

Logo em seguida digite:

# service drbd start

Por padrão o serviço iniciar como Secondary / Secondary.


continua...


Última edição por hugo em 11/1/2010, 17:24, editado 2 vez(es)

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 11/1/2010, 10:15

Configurando Heartbeat

Créditos:
Autor: Saraiva Digital

O heartebat possui três arquivos de configurações, o authkeys, ha.cf e haresources. Todos devem ser criados na pasta /etc/ha.d.

Configurando o authkeys. Este arquivo é responsável em fazer a autenticação entre os servidores:

# vi /etc/ha.d/authkeys

Código:

auth 3
3 md5 Senh4doC1ust3r


Em seguida dê a permissão 600 no authkeys:

# chmod 600 /etc/ha.d/authkeys

Pronto, agora vamos para o ha.cf, arquivo de configurações globais do cluster:

# vi /etc/ha.d/ha.cf



Código:

# <<Configuração do Heartbeat>>
# <Configuração de Logs>

debugfile /logs/ha-debug.log
logfile /logs/ha-log.log

# <Tempo de Heartbeat>

keepalive 2

# <Tempo de Morte do Servidor>

deadtime 12
warntime 6

# <Porta para envio de Heartbeats>

udpport 694

# <Placa de Rede para canal Heartbeat>

bcast bond0

# [Active/Active]

auto_failback on

# <Servidores do Cluster>

node torrenorte
node torresul

# <<Fim>>

E por fim o haresources que é o responsável em gerenciar os recurso do cluster como iniciar ou parar o samba, montar os discos migrar IP etc...
vi /etc/ha.d/haresources


# <<Configuração do Haresources >>
torrenorte 172.27.1.101 AudibleAlarm::torrenorte drbddisk::r0 Filesystem::/dev/drbd0::/storage::xfs smb nmb

torresul 172.27.1.102 AudibleAlarm::torresul drbddisk::r1 Filesystem::/dev/drbd1::/database::xfs firebird


Terminando de editar, copie todos arquivos de configuração do heartbeat para o outro servidor digitando o comando:

# scp /etc/ha.d/authkeys ha.cf haresources 10.27.1.102:/etc/ha.d/

Verifique se o arquivo /etc/ha.d/authkeys está com a permissão 600 nos dois servidores, caso contrário o heartebat não inicia.

Vamos iniciar o heartebat supondo que seu Samba e o Firebird já estejam instalados e configurados nos dois servidores. Lembrando que...

Servidor torrenorte:

# service heartbeat start





Servidor torresul:

# service heartbeat start





Como saber se deu tudo certo? Vamos ao checklist. Ao subir o heartbeat verifique se:

Torrenorte:
Aparece o IP virtual 172.27.1.101;
O disco /storage está montado;
O serviço smb e smb estão iniciados.

Torresul:
Aparece o IP virtual 172.27.1.102;
O disco /database está montado;
O serviço firebird está iniciado.


continua...


Última edição por hugo em 11/1/2010, 17:27, editado 5 vez(es)

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 11/1/2010, 15:43

Dicas finais

Créditos:
Autor: Saraiva Digital


Retire da inicialização os serviços que serão executados pelo cluster. Faça isso nos 2 servidores:

# chkconfig -del smb
# chkconfig -del nmb
# chkconfig -del firebird

Agora precisamos colocar os serviços DRBD e Heartbeat na inicialização nos dois servidores. Execute o comando nessa ordem, primeiro drbd e depois o heartbeat:

# chkconfig -add drbd
# chkconfig -add heartbeat

Prontinho! Reinicie os 2 servidores e veja se tudo sobe automaticamente. Enjoy!



Autor: Saraiva Digital
Site: http://altadisponibilidade.awardspace.com/
Mail: saraivadigital@terra.com.br / saraiva@votuporanga.com.br

http://www.vivaolinux.com.br/artigo/Alta-disponibilidade-com-SuSE-10-Enterprise-Server-SP2?pagina=1

Ficamos por aqui!

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Re: Cluster HearthBeat com Suse 10

Mensagem por hugo em 12/1/2010, 16:02

Como no exemplo tem o firebird instalado postei um link com dicas para a instalacao do interbase no linux suse 10.2

http://forum.programacaobrasil.com/linux-distribuicoes-f58/instalando-interbase-2007-developer-em-linux-opensuse-102-t557.htm#2617

_________________
"A tristeza é a falta de alegria, mais sem ela eu não poderia entender a alegria do fato de que a felicidade existe!"
Helio Leites - http://www.youtube.com/watch?v=3NUEXX_yOL0

hugo
Usuário 5 Estrelas
Usuário 5 Estrelas


Voltar ao Topo Ir em baixo

Ver o tópico anterior Ver o tópico seguinte Voltar ao Topo


 
Permissão deste fórum:
Você não pode responder aos tópicos neste fórum