@pro_openstack

 
Страница 1 из 117
Recluse
15.07.2016
09:42:53
Взял, девушку выгнал (:

Михаил
15.07.2016
09:43:07
да мне надо было кого-то добавить для создания группы

кто под руку попался, того и добавил)

Recluse
15.07.2016
09:43:31
жестоко

Google
Alex
15.07.2016
09:43:31
Ну че ты начинаешь, нормально общались же

Andrew
15.07.2016
09:44:12
она вейпер

Recluse
15.07.2016
09:44:33
она вейпер
аргумент

Alex
15.07.2016
09:44:47
Да лан, девочке можно быть вейпером

Recluse
15.07.2016
09:44:50
Реально повторяется история ирка

Alex
15.07.2016
09:44:57
Главное - пацану не быть вейпером

Recluse
15.07.2016
09:45:00
100 чатиков и 100 тел, которые есть во всех

Aleksandr
15.07.2016
09:45:17
А как иначе, у всех широкий кругозор

Recluse
15.07.2016
09:45:20
и массовка

которая просто наблюдает

Aleksandr
15.07.2016
09:45:47
Наоборот же прикольно, что некая аирсишность возвращается как культ/формат

Recluse
15.07.2016
09:45:53
ага

Google
Recluse
15.07.2016
09:46:00
тока /me не работает блять

(:

Aleksandr
15.07.2016
09:46:15
А то разбежались про социалкам

Recluse
15.07.2016
09:46:26
социалочки нинужны

псевдоновости со смешнявками от псевдодрузей

фу

Aleksandr
15.07.2016
09:47:13
И тысячи децентрализованных группочек

Recluse
15.07.2016
09:47:28
ага

ща тут все переобщаемся

и замутим модный стартап

со смузи и макбуками

обязательно в коворкинге с опенспейсом

гг

Aleksandr
15.07.2016
09:49:03
/me не успел опомниться, как уже потягивал нежный смузи

Recluse
15.07.2016
09:49:24
это всегда называлось «сок с мякотью»

моя советская соковыжималка хоть из березового полена сделает

березовый смузи

ммм

Aleksandr
15.07.2016
09:50:01
=D

Google
Recluse
15.07.2016
09:50:23
ну реально, она что хошь перемелет

обороты жуткие, движок на 220, жрущий киловатт

Dmitry
15.07.2016
09:53:34
опенстек говно ? ?

Recluse
15.07.2016
09:53:45
Го канал про заббикс

XD

и отрс

Dmitry
15.07.2016
09:55:13
блеять - надо чат pro_govno

Aleksandr
15.07.2016
09:55:46
И общаться все время только там

Обо всем

Михаил
15.07.2016
09:56:13
Aleksandr
15.07.2016
09:56:44
pro.zabbix https://telegram.me/prozabbix

Михаил
15.07.2016
09:59:05
собственно по ceph

про maintaince mode

если ноду вывести и потом поднять потушенный интрфейс

то цеф после вывода ноды из maintaince будет перестраиваться?

Dmitry
15.07.2016
10:07:58
Михаил
15.07.2016
10:08:03
да

я про это

Dmitry
15.07.2016
10:11:41
в этом варианте не будет перестраивать

crash map не меняется

Google
Михаил
15.07.2016
10:12:11
это я понял) но когда я выведу и ceph будет работать по другому линку

оно что будет делать?

Dmitry
15.07.2016
10:12:30
по другому линку - это как, нода поменяла адрес/

Михаил
15.07.2016
10:12:40
то есть сервак тот же, а к первому линку добавили второй

Dmitry
15.07.2016
10:14:23
с другим айпишником на нем ?

Михаил
15.07.2016
10:14:35
да

с другим айпи

то есть был один IP 10.2 допустим и теперь включаю второй интрфейс 20.2

Dmitry
15.07.2016
10:16:27
a cluster network какая ? 10.2?

все общение по адресам кластер-сети

Михаил
15.07.2016
10:17:57
кластерная 10.2 да

cluster network =

это же оно да?

Dmitry
15.07.2016
10:20:34
да

тогда ей собсно плевать на второй адрес )

Михаил
15.07.2016
10:21:18
оок, спасибо)

Pavel
15.07.2016
10:46:40
Всем привет, есть вопрос про ceph. Столкнулся с тем, что со всех нод выпало по 2 OSD демона, при попытке поднять демон падает, при попытке вывести из кластера эту OSD падает соседняя.

0> 2016-07-15 12:09:53.127549 7f974c8c3700 -1 osd/osd_types.cc: In function 'uint64_t SnapSet::get_clone_bytes(snapid_t) const' thread 7f974c8c3700 time 2016-07-15 12:09:53.125394 osd/osd_types.cc: 3537: FAILED assert(clone_size.count(clone))

важный кусок и лога как мне кажеться

[root@cephosd1 ~]# ceph -s cluster 3ee239a5-f8a1-49e8-8abf-d22bf81a8ab3 health HEALTH_WARN 150 pgs degraded; 178 pgs stuck unclean; recovery 85079/5077980 objects degraded (1.675%) monmap e5: 3 mons at {cephmon1=192.168.2.200:6789/0,cephmon2=192.168.2.201:6789/0,cephmon3=192.168.2.202:6789/0}, election epoch 78, quorum 0,1,2 cephmon1,cephmon2,cephmon3 osdmap e62089: 97 osds: 91 up, 91 in pgmap v10780822: 2700 pgs, 2 pools, 7109 GB data, 1819 kobjects 19938 GB used, 282 TB / 301 TB avail 85079/5077980 objects degraded (1.675%) 13 active+degraded+remapped 2522 active+clean 137 active+degraded 28 active+remapped client io 23895 kB/s rd, 6141 kB/s wr, 1010 op/s

Google
Pavel
15.07.2016
10:52:04
да по 2 диска

1045 ceph osd crush remove osd.54 1046 ceph auth del osd.54 1047 ceph osd rm 54

вот так

предварительно стопнув демон конечно

Михаил
15.07.2016
10:53:38
оок, вот ты вывел, потом поднимаешь оставшиеся?

Pavel
15.07.2016
10:54:00
оставшиеся не падают

т.е. у меня есть около 100 дисков

на 3 нодах

на каждой ноде лежит 2 диска

 
Страница 1 из 117