<div dir="ltr"><div>Milos,<br><br></div>I just managed to take a look into a similar issue and my analysis is at [1]. I remember you mentioning about some incorrect /etc/hosts entries which lead to this same problem in earlier case, do you mind to recheck the same?<br><br>[1]  <a href="http://www.gluster.org/pipermail/gluster-users/2016-December/029443.html">http://www.gluster.org/pipermail/gluster-users/2016-December/029443.html</a> </div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Dec 14, 2016 at 2:57 AM, MiloÅ¡ ÄŒučulović - MDPI <span dir="ltr">&lt;<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi All,<br>
<br>
Moving forward with my issue, sorry for the late reply!<br>
<br>
I had some issues with the storage2 server (original volume), then decided to use 3.9.0, si I have the latest version.<br>
<br>
For that, I synced manually all the files to the storage server. I installed there gluster 3.9.0, started it, created new volume called storage and all seems to work ok.<br>
<br>
Now, I need to create my replicated volume (add new brick on storage2 server). Almost all the files are there. So, I was adding on storage server:<br>
<br>
* sudo gluter peer probe storage2<br>
* sudo gluster volume add-brick storage replica 2 storage2:/data/data-cluster force<br>
<br>
But there I am receiving &quot;volume add-brick: failed: Host storage2 is not in &#39;Peer in Cluster&#39; state&quot;<br>
<br>
Any idea?<span class="im HOEnZb"><br>
<br>
- Kindest regards,<br>
<br>
Milos Cuculovic<br>
IT Manager<br>
<br>
---<br>
MDPI AG<br>
Postfach, CH-4020 Basel, Switzerland<br>
Office: St. Alban-Anlage 66, 4052 Basel, Switzerland<br>
Tel. +41 61 683 77 35<br>
Fax +41 61 302 89 18<br>
Email: <a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a><br>
Skype: milos.cuculovic.mdpi<br>
<br></span><div class="HOEnZb"><div class="h5">
On 08.12.2016 17:52, Ravishankar N wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
On 12/08/2016 09:44 PM, MiloÅ¡ ÄŒučulović - MDPI wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I was able to fix the sync by rsync-ing all the directories, then the<br>
hale started. The next problem :), as soon as there are files on the<br>
new brick, the gluster mount will render also this one for mounts, and<br>
the new brick is not ready yet, as the sync is not yet done, so it<br>
results on missing files on client side. I temporary removed the new<br>
brick, now I am running a manual rsync and will add the brick again,<br>
hope this could work.<br>
<br>
What mechanism is managing this issue, I guess there is something per<br>
built to make a replica brick available only once the data is<br>
completely synced.<br>
</blockquote>
This mechanism was introduced in  3.7.9 or 3.7.10<br>
(<a href="http://review.gluster.org/#/c/13806/" rel="noreferrer" target="_blank">http://review.gluster.org/#/c<wbr>/13806/</a>). Before that version, you<br>
manually needed to set some xattrs on the bricks so that healing could<br>
happen in parallel while the client still would server reads from the<br>
original brick.  I can&#39;t find the link to the doc which describes these<br>
steps for setting xattrs.:-(<br>
<br>
Calling it a day,<br>
Ravi<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
- Kindest regards,<br>
<br>
Milos Cuculovic<br>
IT Manager<br>
<br>
---<br>
MDPI AG<br>
Postfach, CH-4020 Basel, Switzerland<br>
Office: St. Alban-Anlage 66, 4052 Basel, Switzerland<br>
Tel. +41 61 683 77 35<br>
Fax +41 61 302 89 18<br>
Email: <a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a><br>
Skype: milos.cuculovic.mdpi<br>
<br>
On 08.12.2016 16:17, Ravishankar N wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
On 12/08/2016 06:53 PM, Atin Mukherjee wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
On Thu, Dec 8, 2016 at 6:44 PM, MiloÅ¡ ÄŒučulović - MDPI<br>
&lt;<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;&gt; wrote:<br>
<br>
  Â  Ah, damn! I found the issue. On the storage server, the storage2<br>
  Â  IP address was wrong, I inversed two digits in the /etc/hosts<br>
  Â  file, sorry for that :(<br>
<br>
  Â  I was able to add the brick now, I started the heal, but still no<br>
  Â  data transfer visible.<br>
<br>
</blockquote>
1. Are the files getting created on the new brick though?<br>
2. Can you provide the output of `getfattr -d -m . -e hex<br>
/data/data-cluster` on both bricks?<br>
3. Is it possible to attach gdb to the self-heal daemon on the original<br>
(old) brick and get a backtrace?<br>
  Â  `gdb -p &lt;pid of self-heal daemon on the orignal brick&gt;`<br>
  Â  Â thread apply all bt  --&gt;share this output<br>
  Â  quit gdb.<br>
<br>
<br>
-Ravi<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
@Ravi/Pranith - can you help here?<br>
<br>
<br>
<br>
  Â  By doing gluster volume status, I have<br>
<br>
  Â  Status of volume: storage<br>
  Â  Gluster process  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â TCP Port  RDMA Port<br>
Online  Pid<br>
------------------------------<wbr>------------------------------<wbr>------------------<br>
<br>
  Â  Brick storage2:/data/data-cluster  Â  Â 49152  Â  Â 0 Y<br>
  Â  Â 23101<br>
  Â  Brick storage:/data/data-cluster  Â  Â  49152  Â  Â 0 Y<br>
  Â  Â 30773<br>
  Â  Self-heal Daemon on localhost  Â  Â  Â  Â N/A  Â  Â  Â N/A Y<br>
  Â  Â 30050<br>
  Â  Self-heal Daemon on storage  Â  Â  Â  Â  Â N/A  Â  Â  Â N/A Y<br>
  Â  Â 30792<br>
<br>
<br>
  Â  Any idea?<br>
<br>
  Â  On storage I have:<br>
  Â  Number of Peers: 1<br>
<br>
  Â  Hostname: 195.65.194.217<br>
  Â  Uuid: 7c988af2-9f76-4843-8e6f-d94866<wbr>d57bb0<br>
  Â  State: Peer in Cluster (Connected)<br>
<br>
<br>
  Â  - Kindest regards,<br>
<br>
  Â  Milos Cuculovic<br>
  Â  IT Manager<br>
<br>
  Â  ---<br>
  Â  MDPI AG<br>
  Â  Postfach, CH-4020 Basel, Switzerland<br>
  Â  Office: St. Alban-Anlage 66, 4052 Basel, Switzerland<br>
  Â  Tel. +41 61 683 77 35<br>
  Â  Fax +41 61 302 89 18<br>
  Â  Email: <a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;<br>
  Â  Skype: milos.cuculovic.mdpi<br>
<br>
  Â  On 08.12.2016 13:55, Atin Mukherjee wrote:<br>
<br>
  Â  Â  Â  Can you resend the attachment as zip? I am unable to extract<br>
the<br>
  Â  Â  Â  content? We shouldn&#39;t have 0 info file. What does gluster peer<br>
  Â  Â  Â  status<br>
  Â  Â  Â  output say?<br>
<br>
  Â  Â  Â  On Thu, Dec 8, 2016 at 4:51 PM, MiloÅ¡ ÄŒučulović - MDPI<br>
  Â  Â  Â  &lt;<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;&gt;&gt; wrote:<br>
<br>
  Â  Â  Â  Â  Â  I hope you received my last email Atin, thank you!<br>
<br>
  Â  Â  Â  Â  Â  - Kindest regards,<br>
<br>
  Â  Â  Â  Â  Â  Milos Cuculovic<br>
  Â  Â  Â  Â  Â  IT Manager<br>
<br>
  Â  Â  Â  Â  Â  ---<br>
  Â  Â  Â  Â  Â  MDPI AG<br>
  Â  Â  Â  Â  Â  Postfach, CH-4020 Basel, Switzerland<br>
  Â  Â  Â  Â  Â  Office: St. Alban-Anlage 66, 4052 Basel, Switzerland<br>
  Â  Â  Â  Â  Â  Tel. +41 61 683 77 35<br>
  Â  Â  Â  Â  Â  Fax +41 61 302 89 18<br>
  Â  Â  Â  Â  Â  Email: <a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;&gt;<br>
  Â  Â  Â  Â  Â  Skype: milos.cuculovic.mdpi<br>
<br>
  Â  Â  Â  Â  Â  On 08.12.2016 10:28, Atin Mukherjee wrote:<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  ---------- Forwarded message ----------<br>
  Â  Â  Â  Â  Â  Â  Â  From: *Atin Mukherjee* &lt;<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;&gt; &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:amukherj@redhat.com" target="_blank">amukherj@redhat.com</a>&gt;&gt;&gt;<wbr>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  Date: Thu, Dec 8, 2016 at 11:56 AM<br>
  Â  Â  Â  Â  Â  Â  Â  Subject: Re: [Gluster-users] Replica brick not working<br>
  Â  Â  Â  Â  Â  Â  Â  To: Ravishankar N &lt;<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a> &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;&gt;&gt;&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  Cc: MiloÅ¡ ÄŒučulović - MDPI &lt;<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a> &lt;mailto:<a href="mailto:cuculovic@mdpi.com" target="_blank">cuculovic@mdpi.com</a>&gt;&gt;&gt;&gt;<wbr>,<br>
  Â  Â  Â  Â  Â  Â  Â  Pranith Kumar Karampuri<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a> &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a> &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt; &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;&gt;&gt;<wbr>&gt;,<br>
  Â  Â  Â  Â  Â  Â  Â  gluster-users<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.org</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a>&gt;<br>
  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a>&gt;&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a>&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:gluster-users@gluster.org" target="_blank">gluster-users@gluster.<wbr>org</a>&gt;&gt;&gt;&gt;<br>
<br>
<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  On Thu, Dec 8, 2016 at 11:11 AM, Ravishankar N<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt; &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;&gt;<br>
  Â  Â  Â  Â  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt; &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><br>
  Â  Â  Â  &lt;mailto:<a href="mailto:ravishankar@redhat.com" target="_blank">ravishankar@redhat.com</a><wbr>&gt;&gt;&gt;&gt;<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  wrote:<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  On 12/08/2016 10:43 AM, Atin Mukherjee wrote:<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  &gt;From the log snippet:<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  [2016-12-07 09:15:35.677645] I [MSGID: 106482]<br>
<br>
  Â  Â  Â  [glusterd-brick-ops.c:442:__gl<wbr>usterd_handle_add_brick]<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0-management: Received add brick req<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  [2016-12-07 09:15:35.677708] I [MSGID: 106062]<br>
<br>
  Â  Â  Â  [glusterd-brick-ops.c:494:__gl<wbr>usterd_handle_add_brick]<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  0-management: replica-count is 2<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  [2016-12-07 09:15:35.677735] E [MSGID: 106291]<br>
<br>
  Â  Â  Â  [glusterd-brick-ops.c:614:__gl<wbr>usterd_handle_add_brick]<br>
  Â  Â  Â  Â  Â  Â  Â  0-management:<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  The last log entry indicates that we hit the<br>
  Â  Â  Â  code path in<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  gd_addbr_validate_replica_coun<wbr>t ()<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  if (replica_count ==<br>
  Â  Â  Â  Â  Â  Â  Â  volinfo-&gt;replica_count) {<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  if (!(total_bricks %<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  volinfo-&gt;dist_leaf_count)) {<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  ret = 1;<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  goto out;<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  }<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  }<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  It seems unlikely that this snippet was hit<br>
  Â  Â  Â  because we print<br>
  Â  Â  Â  Â  Â  Â  Â  the E<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  [MSGID: 106291] in the above message only if<br>
ret==-1.<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  gd_addbr_validate_replica_coun<wbr>t() returns -1 and<br>
  Â  Â  Â  yet not<br>
  Â  Â  Â  Â  Â  Â  Â  populates<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  err_str only when in volinfo-&gt;type doesn&#39;t match<br>
  Â  Â  Â  any of the<br>
  Â  Â  Â  Â  Â  Â  Â  known<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  volume types, so volinfo-&gt;type is corrupted<br>
perhaps?<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  You are right, I missed that ret is set to 1 here in<br>
  Â  Â  Â  the above<br>
  Â  Â  Â  Â  Â  Â  Â  snippet.<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  @Milos - Can you please provide us the volume info<br>
  Â  Â  Â  file from<br>
  Â  Â  Â  Â  Â  Â  Â  /var/lib/glusterd/vols/&lt;volnam<wbr>e&gt;/ from all the three<br>
  Â  Â  Â  nodes to<br>
  Â  Â  Â  Â  Â  Â  Â  continue<br>
  Â  Â  Â  Â  Â  Â  Â  the analysis?<br>
<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  -Ravi<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  @Pranith, Ravi - Milos was trying to convert a<br>
  Â  Â  Â  dist (1 X 1)<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  volume to a replicate (1 X 2) using add brick<br>
  Â  Â  Â  and hit<br>
  Â  Â  Â  Â  Â  Â  Â  this issue<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  where add-brick failed. The cluster is<br>
  Â  Â  Â  operating with 3.7.6.<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Could you help on what scenario this code path<br>
  Â  Â  Â  can be<br>
  Â  Â  Â  Â  Â  Â  Â  hit? One<br>
  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  Â  straight forward issue I see here is missing<br>
  Â  Â  Â  err_str in<br>
  Â  Â  Â  Â  Â  Â  Â  this path.<br>
<br>
<br>
<br>
<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  --<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  ~ Atin (atinm)<br>
<br>
<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  --<br>
<br>
  Â  Â  Â  Â  Â  Â  Â  ~ Atin (atinm)<br>
<br>
<br>
<br>
<br>
  Â  Â  Â  --<br>
<br>
  Â  Â  Â  ~ Atin (atinm)<br>
<br>
<br>
<br>
<br>
--<br>
<br>
~ Atin (atinm)<br>
</blockquote>
<br>
<br>
</blockquote></blockquote>
<br>
<br>
</blockquote>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><br></div><div>~ Atin (atinm)<br></div></div></div></div>
</div>