<div dir="ltr"><div><br></div><div> Mehmet: it doesn't look like wal is mentioned in the osd metadata.  I see bluefs slow, bluestore bdev, and bluefs db mentioned only.<br></div></div><br><div class="gmail_quote"><div dir="ltr">On Sun, Oct 28, 2018 at 1:48 PM <<a href="mailto:ceph@elchaka.de">ceph@elchaka.de</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>IIRC there is a Command like <br><br>Ceph osd Metadata<br><br>Where you should be able to find Information like this<br><br>Hab<br>- Mehmet <br><br><div class="gmail_quote">Am 21. Oktober 2018 19:39:58 MESZ schrieb Robert Stanford <<a href="mailto:rstanford8896@gmail.com" target="_blank">rstanford8896@gmail.com</a>>:<blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr"><div><br></div><div> I did exactly this when creating my osds, and found that my total utilization is about the same as the sum of the utilization of the pools, plus (wal size * number osds).  So it looks like my wals are actually sharing OSDs.  But I'd like to be 100% sure... so I am seeking a way to find out<br></div></div><br><div class="gmail_quote"><div dir="ltr">On Sun, Oct 21, 2018 at 11:13 AM Serkan Çoban <<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">wal and db device will be same if you use just db path during osd<br>
creation. i do not know how to verify this with ceph commands.<br>
On Sun, Oct 21, 2018 at 4:17 PM Robert Stanford <<a href="mailto:rstanford8896@gmail.com" target="_blank">rstanford8896@gmail.com</a>> wrote:<br>
><br>
><br>
>  Thanks Serkan.  I am using --path instead of --dev (dev won't work because I'm using VGs/LVs).  The output shows block and block.db, but nothing about wal.db.  How can I learn where my wal lives?<br>
><br>
><br>
><br>
><br>
> On Sun, Oct 21, 2018 at 12:43 AM Serkan Çoban <<a href="mailto:cobanserkan@gmail.com" target="_blank">cobanserkan@gmail.com</a>> wrote:<br>
>><br>
>> ceph-bluestore-tool can show you the disk labels.<br>
>> ceph-bluestore-tool show-label --dev /dev/sda1<br>
>> On Sun, Oct 21, 2018 at 1:29 AM Robert Stanford <<a href="mailto:rstanford8896@gmail.com" target="_blank">rstanford8896@gmail.com</a>> wrote:<br>
>> ><br>
>> ><br>
>> >  An email from this list stated that the wal would be created in the same place as the db, if the db were specified when running ceph-volume lvm create, and the db were specified on that command line.  I followed those instructions and like the other person writing to this list today, I was surprised to find that my cluster usage was higher than the total of pools (higher by an amount the same as all my wal sizes on each node combined).  This leads me to think my wal actually is on the data disk and not the ssd I specified the db should go to.<br>
>> ><br>
>> >  How can I verify which disk the wal is on, from the command line?  I've searched the net and not come up with anything.<br>
>> ><br>
>> >  Thanks and regards<br>
>> >  R<br>
>> ><br>
>> > _______________________________________________<br>
>> > ceph-users mailing list<br>
>> > <a href="mailto:ceph-users@lists.ceph.com" target="_blank">ceph-users@lists.ceph.com</a><br>
>> > <a href="http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com" rel="noreferrer" target="_blank">http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com</a><br>
</blockquote></div>
</blockquote></div></div>_______________________________________________<br>
ceph-users mailing list<br>
<a href="mailto:ceph-users@lists.ceph.com" target="_blank">ceph-users@lists.ceph.com</a><br>
<a href="http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com" rel="noreferrer" target="_blank">http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com</a><br>
</blockquote></div>