<br><br>On Thursday, November 3, 2016, Pete Wright <<a href="mailto:pete@nomadlogic.org">pete@nomadlogic.org</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
<br>
On 11/3/16 8:48 AM, Mark Saad wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
<br>
<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
On Thursday, November 3, 2016 10:58 AM, Siobhan Lynch <<a>slynch2112@me.com</a>> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
</blockquote>
<br>
<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
 On Nov 3, 2016, at 10:38 AM, Mark Saad <<a>mark.saad@ymail.com</a>> wrote:<br>
<br>
 All<br>
 Last night there was a discussion about s3 work-a-likes. Here are the two<br>
</blockquote>
that I know of.<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
 1. LeoFS .<br>
    Written in Erlang, and runs well enough on FreeBSD, Solaris, Illumos ,<br>
</blockquote>
Linux and maybe even  Windows.<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
 Written by rakuten and used in production on a number of things. Including<br>
</blockquote>
Project-Fifo.net, Rakuten.com<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
 and a number of other systems.<br>
<br>
 <a href="http://leo-project.net/leofs/" target="_blank">http://leo-project.net/leofs/</a><br>
<br>
 2. Minio .<br>
   Written Go , and claims to be supported on many platforms .<br>
 Its fairly new but aims to be fully compatable.<br>
 <a href="https://minio.io" target="_blank">https://minio.io</a><br>
<br>
<br>
 Also fun things with LeoFS, it can run inside of a Zone or a Jail.<br>
<br>
<br>
</blockquote>
<br>
<br>
Ceph has radosgw which is a REST gateway to emulate s3.<br>
</blockquote>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
</blockquote>
<br>
<br>
Trish<br>
  I want to know why everyone is talking about ceph ? Not that I am in love with LeoFS .<br>
But ceph has lots of issues on not linux.<br>
<br>
</blockquote>
<br>
tl;dr version: it's shite.  the longer story...it's shite and focused on linux pretty much.<br>
<br>
i kid i kid - it's def some interesting technology, but even before RedHat acquired Inktank there was a ton of linux specific foo baked into the code.<br>
<br>
and even if you are running it on linux it's really unstable IMHO outside of some specific use-cases.  but even then, using it as a block storage backend for openstack for example, it is definitely not for the faint of heart to implement and maintain at scale.<br>
<br>
just my two bits - i'm sure there are plenty of counterpoints out there - but i've often put lots of hope that ceph will mature into a product as it would have made my life *much* easier only to be disappointed.<br>
<br>
-p<br>
<br>
<br>
-- <br>
Pete Wright<br>
<a>pete@nomadlogic.org</a><br>
nomadlogicLA<br>
<br>
______________________________<wbr>_________________<br>
talk mailing list<br>
<a>talk@lists.nycbug.org</a><br>
<a href="http://lists.nycbug.org/mailman/listinfo/talk" target="_blank">http://lists.nycbug.org/mailma<wbr>n/listinfo/talk</a><br>
</blockquote><div><br></div><div>Also s3 is not a mountable filesytem. It is not a zfs, lusterfs, or glusterfs not looking to implement posix locking etc.</div><div><br></div><div>Amazons product prospective is key. Instead of attemping to solve the distributed mountable lockable filesystem problem, they understood that people were making large piles of mostly large file immutable data.</div><div><br></div><div>Compliance and regulation want to keep all the data, bi teams wanting to do year over year reporting want to keep the data. The built a solution not attempted to solve the holy grail of big distributed file system with posix. </div><div><br></div><div>Put/get big scale. Once they lock that piece they add features. Auto retention via meta data, put get generate events to kinesis, reduced storage lower cost, glacier only pay to take out.</div><br><br>-- <br>Sorry this was sent from mobile. Will do less grammar and spell check than usual.<br>