Преимущества облачных объектных хранилищ
Основными преимуществами в пользу использования объектных хранилищ являются:
Масштабируемость — одно из основных преимуществ. Благодаря тому, что адреса к объектам хранятся в виде ссылок, а не по именам, систему можно легко масштабировать. Такая система практически не ограничена по размеру и может содержать любое количество данных.
Эффективность такого способа хранения обусловлена отсутствием иерархии, что в свою очередь обеспечивает и отсутствие узких мест, которые, как правило, возникают при использовании сложных систем многоуровневых каталогов.
Современные объектные хранилища обеспечивают сохранность целостности данных, производя их репликацию и обновления, что в свою очередь приводит к отсутствию простоев систем.
Отказоустойчивость сервиса обеспечивается тем, что, как правило, данную услугу предоставляют центры обработки данных высокого уровня надежности (Tier II и Tier III) с отказоустойчивой инфраструктурой, благодаря чему обеспечивается бесперебойный доступ к данным.
Heroku – лучший бесплатный облачный хостинг для разработчиков
В этом списке нет ни одной компании, с которой было бы работать проще и удобнее, чем с Heroku. Также здесь заметно меньше инструментов и функций: основным элементом являются так называемые блоки Dynos. Как описывает их сама команда Heroku, “Dynos — это изолированные и виртуализованные контейнеры Linux”. Они разработаны с тем, чтобы исполнять код на основе выбранных пользователями команд, поэтому доступно всего 6 типов таких блоков. И первый тип совершенно бесплатен.
Комбинация нулевой стоимости и простоты использования сделала Heroku отличным вариантом для студентов и разработчиков. Зарегистрировавшись и настроив Dyno, вы сразу же получаете готовую среду для запуска приложений. Система поддерживает множество языков и фреймворков (Python, Node.js, Ruby), причем даже без необходимости вносить дополнительные изменения.
Бесплатный контейнер Dyno ласт вам 512 МБ RAM и 2 типа процессов (что аналогично 1 vCPU), так что это отличная платформа для школьных проектов и экспериментов. Вы сможете запустить WordPress и аналогичные платформы в среде PHP, однако наверняка заметите, что облачный инстанс Heroku работает чуть хуже, чем аналогичные предложения конкурентов. Результаты нашего тестирования эффективности работы доступны здесь.
- Бесплатный контейнер Dyno – бесплатный облачный инстанс доступен не постоянно, спустя полчаса без активности его придется запускать обратно. Как следствие, функциональность этого сервиса ограничена презентациями кода и/или приложений, так как ни о какой постоянно доступности речи не идет.
- Простота использования – у Heroku действительно удобный и продуманный пользовательский интерфейс, контейнеры Dynos и другие дополнительные функции можно добавлять быстро и просто. Фактически, Heroku позволяет сфокусироваться на самой разработке, снимая с вас ответственность за поддержку инфраструктуры.
- Билд-паки – Heroku позволяет вам мгновенно развернуть среды разработки для PHP, Node.js, Python и многих других языков, где сразу будут указаны все необходимые настройки и зависимости.
- Аддоны – вы сможете добавить в свой облачный аккаунт множество аддонов, как бесплатных, так и недорогих. В рамках бесплатного тарифа вы, в частности, сможете использовать Heroku Redis, Timber.io и Mailgun.
S3 on Outposts
S3 Outposts
Amazon S3 on Outposts предоставляет возможности хранения объектов в вашей локальной среде AWS Outposts. С помощью API S3 и функций, доступных в регионах AWS, S3 on Outposts существенно упрощает хранение и извлечение данных на вашем экземпляре Outpost, а также повышает защищенность данных, предоставляет более эффективные средства управления, маркировки и составления отчетности. S3 on Outposts предоставляет единственный класс хранилища Amazon S3 под названием «S3 Outposts»: для него используются API S3, а сам класс предназначен для надежного хранения данных с избыточностью одновременно на нескольких устройствах и серверах вашего экземпляра Outposts. Класс хранилища S3 Outposts идеально подходит для рабочих нагрузок с необходимостью локального размещения данных и для удовлетворения требований к производительности благодаря хранению данных в непосредственной близости к локальным приложениям.
Хранилище резервных копий Microsoft OneDrive
Чтобы настроить хранилище Microsoft OneDrive:
- Перейдите в раздел Сайты и домены > ваша подписка > Резервные копии > Настройки удаленного хранилища > Microsoft OneDrive Backup.
- Войдите в свою учетную запись Microsoft. Plesk будет сохранять резервные копии в хранилище OneDrive, связанном с учетной записью. Если у вас нет учетной записи Microsoft, создайте ее.
- Нажмите ссылку, чтобы отправить в Plesk данные для входа Microsoft.
- Установите флажок «Использовать хранилище».
- (Необязательно) По умолчанию Plesk хранит резервные копии в папке “Apps/plesk-backup/<имя подписки>” в вашем хранилище Microsoft OneDrive. При необходимости вы можете указать другую папку.
- Нажмите OK.
Настройка хранилища резервных копий Microsoft OneDrive завершена. Теперь вы можете использовать его при создании резервной копии вручную или по расписанию.
Если вы хотите хранить резервные копии в хранилище OneDrive, связанном с другой учетной записью Microsoft, перейдите в раздел Сайты и домены > ваша подписка > Резервные копии > Настройки удаленного хранилища> Microsoft OneDrive и нажмите ссылку «Выйти».
Это приведет к отключению текущего хранилища OneDrive. После этого вы можете подключить другое хранилище, выполнив описанные выше шаги. Отключение хранилища резервных копий OneDrive не приводит к удалению сохраненных в нем резервных копий Plesk. Если вы снова подключитесь к нему позже, вы сможете увидеть сохраненные резервные копии в разделе Резервные копии, а также восстановить их.
Making a Area
After you have signed into DigitalOcean and chosen to create a brand new Area, you’ll be introduced with the choices to provision your Area. You have to to find out the next:
- Datacenter Area
- Whether or not to Allow CDN or not
- Enable or Prohibit File Itemizing
- Determine on a Title for the Area
On this instance, we’re selecting to create the house in Datacenter Area 2, San Francisco, allow the CDN (with out a customized subdomain), and prohibit the nameless file itemizing.
Lastly, we’ll select a singular title, on this case, and whether or not to put it right into a mission. Subsequent we’ll click on on the Create a Area button to provision our Area.
With out newly created Area, you will notice that there aren’t any recordsdata however by means of the interface, we will simply add recordsdata or create folders as vital.
Clicking on Settings reveals all of the configurations that we will modify. A number of further options listed here are very helpful. Notably the Purge Cache choice and the CORS configurations.
Предоставление пользователям доступа к пулу
Пул существует, но хранить в нем данные может только пользователь root. Конечно, это не то, что нам нужно. Мы хотим, чтобы другие пользователи имели доступ к пулу.
Для этого мы:
- Создайте каталог в пуле.
- Создайте новую группу.
- Установите новую группу в качестве владельца группы каталога.
- Добавьте пользователей, которым нужен доступ к хранилищу данных, в новую группу.
Эта схема предлагает большую гибкость. Мы можем создать столько каталогов хранения данных, сколько нам нужно, с разными группами, которые будут владеть ими. Предоставить пользователям доступ к различным областям хранения так же просто, как добавить их в соответствующие группы.
Давайте использовать для создания группы пользователей. Наша группа называется «csavvy1». Итак, давайте использовать команда для добавления пользователя с именем «dave» в новую группу. О Параметр (добавить) добавляет новую группу в список существующих групп, в которых находится пользователь. Без этой опции пользователь удаляется из всех существующих групп и добавляется в новую. Это вызовет проблемы, поэтому обязательно используйте вариант.
sudo groupдобавить csavvy1
sudo usermod -a -G csavvy1 Дэйв
Чтобы их новое членство в группе вступило в силу, пользователь должен выйти и снова войти в систему.
Теперь давайте создадим в пуле каталог с именем «data1».
судо mkdir / cloudsavvyit / data1
o Команда позволяет вам установить владельца группы каталогов.
sudo chgrp csavvy1 / cloudsavvyit / data1
Наконец, давайте установим групповые разрешения, используя . «S» — это специальный бит SGID. Это означает, что файлы и каталоги, созданные в каталоге «data1», унаследуют группу-владельца этого каталога.
sudo chmod g + rwsx / cloudsavvyit / data1 /
Наш пользователь вышел из системы и снова вошел в систему. Попробуем создать файл в новом каталоге хранилища данных в нашем новом пуле ZFS RAID 1.
коснитесь /cloudsavvyit/data1/new-file.txt
И посмотрим, создано ли оно.
ls / cloudsavvyit / data1 -lh
Успех. Что, если мы попытаемся создать другой файл вне нашей области хранения data1?
коснитесь /cloudsavvyit/new-file2.txt
Это не соответствует ожиданиям. Наши разрешения работают. Наш пользователь может управлять файлами только в том каталоге хранилища данных, к которому ему было предоставлено разрешение на доступ.
СВЯЗАННЫЕ С: Как использовать SUID, SGID и Sticky Bits в Linux
Что предлагает DigitalOcean?
DigitalOcean — это облачный хостинг для опытных пользователей, ознакомитесь с Актуальные Контакты и Отзывы DigitalOcean.
DigitalOcean позиционирует себя как доступный виртуальный сервер и обещает высокую производительность даже за минимальную цену. По их словам, активируют веб сервер они за 55 секунд. Засекать не пришлось, но своих слов придерживаются. Дольше 2 минут ожидать не пришлось.
Цены на услуги облачного хостинга стартуют от 5 долларов. За эти деньги вы получите самый простенький набор характеристик: 512 RAM; 20 GB SSD; 1 Core; 1 TB Traffic.
Учитывая, что оборудование DigitalOcean, по словам технической поддержки, обновляет регулярно, вполне есть вероятность получить шустрый недорогой VPS сервер, который выдержит сайт с потоком до нескольких тысяч посетителей в сутки.
Самый дорогой тариф обойдется в 80 долларов и нафарширован по максимуму: 8GB RAM; 80GB SSD; 4 Cores; 5 TB Traffic.
Для нашей местности лучше выбирать VPS сервера компании, расположенные в Амстердаме или Франкфурте. При тестах c выдает средний пинг около 50 мс. Онлайн-мониторинг аптайма выдает выдает 100% а Амстердаме и 99.98% в Нью-Йорке.
Лайфхак
Если вы знаете, что такое облачный сервер и при этом держите свой довольно объемный проект у более дорогостоящих провайдеров, советую перейти на DigitalOcean. Естественно, для раскрутки стартующего приложения и тестирования, рекомендую использовать Azure. Azure доступный, недорогой и максимально настраиваемый под заранее неизвестную нагрузку. После того как вы будите знать нагрузку на сервер вашего стартапа, нужно переходить на DigitalOcean.
GETTING THE VALUES WE NEED FROM DIGITALOCEAN
The next step now is getting the values we need from DigitalOcean , we will use those in our settings.py and complete our setup
After creating your DigitalOcean account, log in and click on the green button labeled create and then click on space
You will land on a page that looks like this
Chose your datacenter I chose New York
Scroll down , skip the CDN part since we will not be using CDN in this tutorial, leave Allow File listing the way it is, it is always set as Restrict file listing.
Create a unique name for your space here, the name I chose was our-project-space and click create space
The next page after creating our DigitalOcean space looks like this
Click on New Folder , here what we want to do is to create our folder where all our files will be dumped, this will be our AWS_STORAGE_BUCKET_NAME , basically this is a bucket where our static files and media files will be located.
The folders mediafiles and staticfiles will be created automatically inside this bucket just as we declared in STATICFILES_STORAGE and DEFAULT_FILE_STORAGE
I named mine our-project-space , I chose same name for my space and bucket name.
The above photo shows the folder I created , type the name of your bucket there , my bucket name again was our-project-space
Next what we need is AWS_ACCESS_KEY_ID and AWS_SECRET_ACCESS_KEY, click on the API on your side bar , scroll down to spaces access keys
Click generate new key
Give our spaces access key a name as shown below after that click the check mark and your keys will be generated
After naming your key and clicking the check mark you will see the following page
You need now to copy the Secret key and put it somewhere on your local computer since these will disappear if you refresh the page and you will have to regenerate them again.
( Note: I will be deleting the above access keys , this was just for demonstration purposes )
Now we have everything we need, it is now time to test whether it is working.
I have already prepared a Django app for you to test this , you can find it here : https://github.com/felix13/picha
Clone or download it, go to the settings.py file
After we generated our access keys, we were given two keys , a shorter one with few characters and a longer one .
The shorter one will be our AWS_ACCESS_KEY_ID
The longer one will be our AWS_SECRET_ACCESS_KEY
AWS_STORAGE_BUCKET_NAME set your bucket name here , mine was our-project-space
Next value is AWS_S3_ENDPOINT_URL, to get this value, you can click manage on your side bar , then spaces and then you will see a page like this
If you look closely you will see this link:
https://our-project-space.nyc3.digitaloceanspaces.com below our-project-space name
That is the value that we will use as our AWS_S3_ENDPOINT_URL
Leave the rest of the settings as they are, Now it is time for us to test if it works
Go to your root direactory, and type this command
python manage.py collectstatic
This command will push all our static files to our DigitalOcean bucket and create these two files inside of our bucket
- staticfiles
- mediafiles
The static files will be going to staticfiles directory and the media files will be going to mediafiles directory.
Lets now start our server with the following command
python manage.py runserver
Upload a few images and your app should look somthing like this
If you right click on one of the images and click view ( in firefox browser ) , you can see the image URL points to DigitalOcean. if you are using chrome you can inspect the image and check the URL of image.
If you look closely at the URL of this image , you will see that it is hosted in DigitalOcean.
Нечастый доступ
Amazon S3 Standard-Infrequent Access (S3 Standard-IA)
Класс хранилища S3 Standard – IA является идеальным выбором для хранения данных, доступ к которым осуществляется относительно редко, но при этом должен обеспечиваться быстро. Хранилище S3 Standard – IA обеспечивает высокую надежность, высокую пропускную способность и низкие задержки хранилища S3 Standard одновременно с низкими ценами на каждый гигабайт хранилища и гигабайт извлеченных данных. Такое сочетание низкой стоимости и высокой производительности делает S3 Standard – IA идеальным выбором для долгосрочного хранения данных, резервного копирования, а также хранения данных на случай аварийного восстановления файлов. Классы хранилища S3 можно настроить на уровне объектов, и одна корзина может содержать объекты, хранимые в хранилищах S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA и S3 One Zone-IA. С помощью политик жизненного цикла S3 также можно автоматически переносить объекты между классами хранилищ без каких-либо изменений в приложении.
Основные возможности
- Низкая задержка и высокая пропускная способность на уровне хранилища S3 Standard
- Хранение объектов с надежностью 99,999999999 % в нескольких зонах доступности
- Устойчивость к событиям, влияющим на всю зону доступности
- Сохранность данных в случае полного отказа одной из зон доступности
- Гарантированная доступность на уровне 99,9 % в течение года
- Доступность гарантируется Соглашением об уровне обслуживания Amazon S3
- Поддержка SSL при передаче данных и шифрование данных при хранении
- Управление жизненным циклом S3 для автоматического переноса объектов в другие классы хранилища S3
Поиск параметров ZFS во время установки
Во время установки Ubuntu экран «Тип установки» позволяет вам выбрать, стереть ли диск, на который вы устанавливаете Ubuntu, или сделать что-нибудь еще. Нажмите кнопку «Дополнительные функции».
Откроется диалоговое окно «Дополнительные функции».
Установите переключатель «Стереть диск и использовать ZFS» и нажмите кнопку «ОК».
На экране «Тип установки» отобразится «Выбран ZFS», чтобы показать, что вы выбрали использование ZFS.
Нажмите кнопку «Продолжить» и завершите установку обычным образом.
Если на вашем компьютере установлено несколько жестких дисков, вы можете выбрать, как вы хотите, чтобы они использовались ZFS. Ubuntu предложит предлагаемую настройку, но вы можете настроить ее по своему усмотрению.
Но что, если вы добавите несколько жестких дисков после установки Ubuntu? Как настроить ZFS для использования нового хранилища? Вот что мы увидим дальше.
Мы установили Ubuntu с ZFS на единственный жесткий диск тестовой машины, которую мы использовали для исследования этой статьи. Мы добавили еще два жестких диска, что в сумме дало компьютеру три жестких диска. На одном жестком диске была установлена Ubuntu, а два новых диска были пустыми, неформатированными и отключенными.
Первое, что нам нужно сделать, это определить, как Ubuntu относится к новым жестким дискам. О Команда выводит список всех блочных устройств, установленных на вашем компьютере. Мы можем указать, какие выходные столбцы мы хотим видеть в результатах.
lsblk -o имя, размер, fstype, тип, точка монтирования
o (вывод) следуют столбцы, которые мы хотим видеть. Мы выбрали:
- имя: Имя, которое Ubuntu использует для обозначения жесткого диска.
- Размер: Размер жесткого диска. Если на жестком диске более одного раздела, все они будут перечислены, и будет показан размер каждого раздела.
- fstype: Файловая система, представляющая собой жесткий диск или раздел.
- модель: Указывает ли строка на диск, раздел, привод CD-ROM или псевдоустройство с обратной связью.
- сборный пункт: Точка монтирования файловой системы на жестком диске или разделе.
иметь много петлевые устройства, пронумерованные сквозь. Каждый раз, когда вы устанавливаете приложение snap, создается одно из этих псевдоустройств. Это часть инкапсуляции и песочницы, которая окружает каждое стыковочное приложение.
Первый жесткий диск указан как . Это накопитель емкостью 32 ГБ с пятью разделами, обозначенными как сквозь . Они по-разному отформатированы. Это тот диск, который был на компьютере, когда мы устанавливали Ubuntu.
Наши два новых жестких диска перечислены как e . Это тоже накопители на 32 ГБ, но они не отформатированы и размонтированы.
Недостатки облачных объектных хранилищ
Среди замечаний, которые называют ИТ-специалисты можно выделить следующие:
Приложения, которые обращаются к объектному хранилищу, часто требуют доработки, так как, как правило, изначально API объектов максимально простые и не соответствуют стандартным требованиям для управления данными из хранилища.
Часто появляются проблемы с совместимостью инструментов файловой системы (например, утилитов) с объектными системами хранения. Для того, чтобы они могли взаимодействовать друг с другом, требуется организация нескольких промежуточных уровней.
Объектное хранилище подходит не для всех типов данных. Наиболее подходящие объекты — это медиаданные и веб-материалы.
Соедините ваш вебсайт с CloudFront CDN
Так ли это необходимо, спросите вы? Да, так же необходимо, как окна вашему дому.
Для того, чтобы убедить вас в этом, мы создали контрольный анализ влияния CDN на скорость загрузки веб страницы (без и с CDN), используя Website Speed Test инструмент.
Используемый хостинг: Amazon S3
Используемый CDN Amazon CloudFront
Ниже приведены результаты этого теста:
Как вы видите, средняя скорость загрузки страницы отлична для каждой страны.
И для каждой страны она меньше без CDN, чем с ним.
Мой облачный хостинг находится в Ирландии, поэтому самая большая и заметная разница в показателях приходится на Австралию и Аргентину.
Однако, мы также можем заметить определенные спады в скорости загрузки для других ГЕО.
DigitalOcean API Key
Now that you have your access key and secret for the spaces bucket, you’ll still need an API key to use with Terraform to create a few resources such as DigitalOcean droplets and a Spaces bucket. This can also be done in the «API» section of the console.
Terraform Code
OK, so now we have our Spaces Access Key + Secret as well as our DigitalOcean API key. We can now move on to actually creating some droplets, a bucket, and share files across the two using s3fs.
A quick overview of what is happening below. We’re creating a new bucket and 2 droplets that will share files back and forth. This is done my taking some example input such as a region, mount point (filesystem path), and bucket name which will use cloud-init to mount the bucket to the droplets when they first boot.
First let’s make a file that takes in our configuration. It looks likes this:
Enter fullscreen modeExit fullscreen mode
Now we need to create a file called with the following content below. This will create our bucket and droplets and will configure s3fs on our droplets to be able to read and write files to the same bucket.
Please refer to the comments for the walkthrough of each component:
Enter fullscreen modeExit fullscreen mode
Conclusion
We have seen how object storage works and why DigitalOcean Spaces can be an affordable choice.
Because of its predictable pricing, Spaces gives greate peace of mind than its competitors like S3 and Google Cloud. So, for beginner users and bloggers who do not have much experience with cloud object storage, Spaces gives an easy entry. It has the potential to serve enterprise users as well.
Signup with DigitalOcean & get $100 free credits
Since it works much like S3, developers also find it easy to work with. So, again it is a great option if you already use DigitalOcean’s other products like droplets.
On the other hand, if you need more regions then Amazon and Google offer that along with a lot of other services.
Then we saw how the performance improved when coupled with the built-in CDN. Now it supports custom sub-domains also.
Have you used Spaces? What is your experience, and how do you feel it against S3 or GCP? Mention it in the comments.
DigitalOcean Spaces
-
Ease of Use
-
Features
-
Pricing
Performance
After running a few ping tests using KeyCDN’s free tools, the global average latency I got for my bucket in the San Francisco region was 124ms for the origin URL. The tool pinged three times from fourteen locations around the globe.
Next, I checked the same using the CDN URL. Then the average time reduced to a mere 14.5ms. Out of the fourteen locations, Sydney (Australia) recorded 113ms and Bangalore (India) clocked 39ms. All the other locations responded under 20ms.
Min1 | Min2 | Max1 | Max2 | Avg (all locs.) | |
---|---|---|---|---|---|
Origin Server | 1.17ms (San Francisco) | 26.78ms (Seattle) | 232.93ms (Sydney) | 230.98ms (Bangalore) | 124ms |
Edge Server | 0.24ms (New York) | 0.27ms (Frankfurt) | 113.76s (Sydney) | 39.88s (Bangalore) | 14.5ms |
So, if you serve assets for the web from Spaces, enabling CDN can improve performance almost ten times. If you use another CDN service, then it is better to disable the in-built CDN as it can cause network confusions.
1: Создание API-ключей и определение имени корзины
Прежде чем начать установку и настройку rclone для копирования объектов в новое хранилище, нужно собрать информацию об учетных записях Amazon S3 и вашего нового провайдера блочного хранилища. Вам понадобится набор ключей API этих сервисов и их ограничения для региона, в котором находится ваша корзина.
Сгенерируйте Access Key для нового сервиса блочных хранилищ.
Сохраните Access Key и Secret Key, чтобы потом использовать их в настройке rclone.
После этого нужно найти соответствующую конечную точку API. Если вы уже создали новую корзину, в которую хотите переместить свои объекты, вы вероятно, сможете просмотреть конечную точку в панели управления.
Генерирование API-ключей Amazon S3
Если у вас еще нет API-ключей Amazon с разрешением на управление активами S3, вам нужно сгенерировать их сейчас. В консоли AWS кликните на имя своей учетной записи и выберите My Security Credentials в выпадающем меню.
В меню слева выберите Users и нажмите Add user.
Введите User name и выберите Programmatic access в разделе Access type. Чтобы продолжить, нажмите Next: Permissions.
На следующей странице выберите параметр Attach existing policies directly и введите s3read в фильтр Policy type. Убедитесь, что поставили галочку AmazonS3ReadOnlyAccess и нажмите кнопку Next: Review, чтобы продолжить.
Просмотрите сведения о пользователе на следующей странице, а затем нажмите кнопку Create user.
На последней странице вы увидите учетные данные нового пользователя. Нажмите ссылку Show в столбце Secret access key, чтобы просмотреть учетные данные.
Скопируйте Access key ID и Secret access key в безопасное место, чтобы затем использовать их в настройке rclone. Вы также можете нажать Download .csv, чтобы сохранить учетные данные на своем компьютере.
Ограничения корзины Amazon S3
Теперь нам нужно узнать ограничения для региона и местоположения корзины S3.
Нажмите Services в верхнем меню и введите S3 в появившейся строке поиска. Выберите службу S3, чтобы перейти в консоль управления S3.
Здесь нужно найти название региона корзины, данные которой нужно переместить. Регион будет отображаться рядом с именем корзины.
Нужно найти строку региона и привязку соответствующего местоположения, связанного с регионом этой корзины. Для этого можно обратиться к . К примеру, если название региона – «US East (N. Virginia)», в качестве строки региона нужно использовать us-east-1, а ограничений местоположения у этого региона нет.
Теперь, когда у вас есть вся необходимая информация об учетной записи Amazon, можно установить и настроить rclone.
В чём преимущества хостинга от DigitalOcean?
DigitalOcean написали в блоге, что считают своим преимуществом прозрачный и понятный ценник. Теперь для расчёта стоимости месячного обслуживания в облачном сервисе не требуется докторская степень! Чего не скажешь про другие платформы: есть пример, как разработчик детально разбирает свои счета за использование Google Cloud.
Мы решили сравнить цены на минимальные варианты от DigitalOcean и AWS. Выбрали самую дешёвую конфигурацию профессионального плана за $12/мес. (на время беты они обойдутся в полцены) и добавили управляемую базу данных за $15/мес. Итог: $27 (без скидки).
Затем мы прикинули аналогичную конфигурацию в AWS. Пока что целая докторская степень не понадобилась, но спортивный разряд по их сервисам лишним не будет. Здесь наш минимум будет стоить $22,95 в месяц… подумали мы.
Если посмотреть на профессиональный план хостинга от DigitalOcean, то увидим, что за $27 в месяц мы получаем не только саму виртуальную машину, но и подушку в виде 100 GiB пропускной способности исходящего канала, хранилища на 100 GiB и 1000 минут на сборку приложения и других плюшек.
В AWS подобные запасы не предусмотрены, и придётся добавлять их в наш калькулятор как отдельные сервисы. SSD на 110 GB обойдётся в $11,49. Тысяча минут сборки накинут в чек ещё $5 ($0,005 * 1000). И вот в месяц мы плати уже не $22,95, а все $39,44 в месяц.
Ещё сюда можно добавить, что пропускная способность привязана к типу машины, и в выбранной нами t3.micro предусмотрено всего до 5 Gb. DigitalOcean предлагает в сумме 100 GiB (~860 Gb) на все машины, подключенные к одному аккаунту с профессиональным планом. И доменные имена океанские предлагают бесплатно, а в AWS придётся подключать Route 53.
Мы ощутимо потратили время, пытаясь из десятков сервисов AWS понять, что к чему. Затем ещё раз открыли вкладку (единственную) с DigitalOcean, и увидели в одном окне гайды по использованию, ответы на часто задаваемые вопросы, что входит в платный пакет
и стоимость дополнительных ресурсов, которые можно добавить при необходимости.
За пять минут в уме можно прикинуть стоимость всех услуг. И если время — это деньги, то DigitalOcean своей понятностью делает неплохую скидку.
История возникновения сервиса DigitalOcean
DigitalOcean – это одна из самых популярных американских компаний по предоставлению услуг аренды облачных инфраструктур с основным центром, расположенным в Нью-Йорке.
Появилась на свет компания еще в далеком 2003 году, когда братья Урецкие, уже владевшие компанией ServerStack, решили не останавливаться на достигнутом и двигаться дальше. Занявшись изучением рынка облачных инфраструктур Бен и Моисей пришли к умозаключению, что все виртуальные сервера в основном ориентированы на крупные компании, а разработчики-любители или независимые маленькие компании оставлены без должного внимания. Именно это несправедливое отношение к независимым одиночным разработчикам и подвигло братьев создать дешевый облачный VPS, который сейчас именуется как DigitalOcean.
Официально компания была зарегистрирована в 2012 году. В следующем году уже были доступны первые тарифные планы на виртуальный хостинг. Всего за один календарный год компании с нуля и без особой рекламы удалось привлечь более 400 клиентов и присоединиться к стартапу TechStars, где она и получила небывалый рост, предлагая доступный облачный хостинг.
Вариант 3. Файловые хранилища
Здесь данные размещаются в каталогах и папках со строгой иерархией. Оно подходит для документов совместного пользования, пользовательских файлов, а также тяжелых файлов, которые нужно часто изменять. На платформе Mail.ru Cloud Solutions можно подключить файловое хранилище как сервис — использовать его как удаленное хранилище файлов, подключив к облачному серверу.
Особенности файловых хранилищ
Файловые хранилища поддерживаются большинством классических систем, поэтому этот тип хранилища хорошо подходит для Legacy-приложений, к которым сложно или невозможно подключить в облаке другую систему хранения. Объем хранилища файлов можно уменьшать и увеличивать, но только в ручном режиме. На платформе MCS под файловое хранилище можно использовать только HDD-диски, поэтому его основные характеристики по производительности будут совпадать с параметрами HDD.
В файловых хранилищах вся информация хранится в виде иерархической системы каталогов