Вопросы с тегами [nfs]

1

голосов
1

ответ
15

Просмотры

Определение 2D массива внутри структуры в спецификации RPC не работает

Я пытаюсь реализует с помощью RPC NFS. Теперь мой файл спецификации выглядит примерно так: (Это очень базовая версия этого :)) ввод STRUCT {команды полукокса [20]; символ Arg [10] [10]; ИНТ numargs; }; структура lsresult {символ обр [50] [256]; }; Программа NFSPROG {версия NFSVERSION {lsresult Ls (вход) = 1; INT кд (вход) = 2; INT MkDir (вход) = 3; INT mkfile (вход) = 4; } = 1; } = 0x21111111; Когда я пытаюсь собрать этот Spec.x используя rpcgen, я получаю сообщение об ошибке, как это: обугленного ARG [10] [10]; ^^^^^^^^^^^^^^ Spec.x, строка 4: ожидается ';' Что может быть причиной этого? Не могу ли я объявить 2D массив внутри структуры в спецификации RPC? (То же ошибка появилась, когда я попытался объявить переменные таким образом: Int а, б, в структурах!)
Ricky
1

голосов
1

ответ
68

Просмотры

Vagrant VMware Desktop VM на хосте Windows, - Акция папки

Мы перешли от Vagrant на VirtualBox к бродячей на VMware Desktop / Workstation Pro из-за Enterprise Licensing. Хозяева Win10, виртуальная машина будет Linux. Все, кажется, работает как-то, несмотря на совместное использование папок между хостом и VM. Мы перепробовали много различных способов, NFS, bindfs, кого-л, но никто не отвечает нашим потребностям. Необходимо, чтобы по крайней мере CHMOD, если не Чаун в общей папке. Доля будет веб-сайты, размещенные на Nginx (Laravel Homestead VM). Я это хорошо работает на VirtualBox (однако с другим / настраиваемым образом виртуальной машины), но не уверен, о реализации на VMware. Любая идея, как правильно реализовать общий доступ к папкам, чтобы CHMOD на Linux гостя и Win-хостинге? Заранее спасибо!
Markus Köhler
1

голосов
0

ответ
53

Просмотры

Nodemon занимает некоторое время, чтобы забрать изменения Nfs

Это может быть настраиваемой доля Nfs или в nodemon, не уверен ... В принципе, для местного разработчика системы производства K8S использования minikube с постоянным объемом претензией, когда объемом является локально определен общим ресурсом. / и т.д. / экспорт: / путь / к / NFS / доля -alldirs -mapall = 501: 20 192.168.99.100 volume.yml: apiVersion: v1 вид: PersistentVolume метаданных: Название: NFS-объем спецификация: емкость: хранение: 15Gi accessModes: - ReadWriteMany persistentVolumeReclaimPolicy: Сохранил storageClassName: стандарт NFS: сервер: 192.168.99.1 путь: / путь / к / NFS / доля --- вид: PersistentVolumeClaim apiVersion: v1 метаданные: название: CR-объем спецификации: storageClassName: стандартные accessModes: - ReadWriteMany ресурсы: запросы: хранение: 15Gi deployment.yml: ... (соответствующий раздел для монтажа доли Nfs в контейнере) контейнеры: - Имя: пупки: имя_образ imagePullPolicy: Всегда команда: - НПМ арга: - запуск - DEV-старт порты: - containerPort: 5600 - containerPort: 5898 volumeMounts: # смонтировать каталог узла для местного развития - mountPath: / USR / SRC / приложение имя: пользователь монтаж Subpath: объемы бэкенда / услуги / пользователя: - имя: пользователь монтаж persistentVolumeClaim: claimName: кр-объем ... команда здесь (НПЙ запустить DEV-старт) есть. ./config/development/export-env.sh && DEBUG = пользователь: * node_modules / nodemon / бен / nodemon.js --inspect = 0.0.0.0: 5898 --legacy-часы -L ./bin/www в отличие от Продукты NPM начало узла. / Бен / WWW Так что это все работает и подражает расшевелит ENV локально и позволяет мне вносить изменения в локальной файловой системе, которые делают свой путь через к контейнерам и перезагрузки. Моя единственная проблема в том, что nodemon вообще не подберет изменения в файл в течение от 30 до 60 секунд. Я достаточно о Nfs акциях и как изменения демона передачи или как nodemon с его флагом наследия-часы часов, чтобы знать, куда идти отсюда не знаю, но я хотел бы быть в состоянии исправить это, так что изменения подгружаются быстрее.
Robin Southgate
1

голосов
0

ответ
131

Просмотры

Не удалось установить общий ресурс совместно с NetApp в CentOS 7

Я не могу монтируемого долю от NetApp в CentOS 7. Экспорт являются общими для всех из NetApp я попытался в частности nfsversion = 3 и стиль безопасности к SYS, никто и NtlmSsp, но до сих пор не повезло. Ниже приведены сообщения в / вар / Журнал / сообщений и dmesg при монтаже акций ядра: RPC: Сервер требует сильной аутентификации. Ниже ООППЫ монтирования команда вывод # монтирование -t NFS -o nfsversion = 3: / NFS1 / nfsshare -vvv mount.nfs: тайм-аут установлен для сб сен 1 00:27:14 2018 mount.nfs: попытка текстовых опций " уегз = 4.1, адр =, clientaddr =»mount.nfs: крепление (2): отказано в mount.nfs: попытка преобразования текста на основе опций 'вар = 4,0, адр =, clientaddr =' mount.nfs: крепление (2): Разрешение отказано mount.nfs: попытка mount.nfs основанные на тексте OPTIONS 'адр =': прог 100003, пытаясь вар = 3, Prot = 6 mount.nfs:
xrkr
1

голосов
0

ответ
23

Просмотры

Читать содержимое файла с NFS с помощью Java

Я пытаюсь прочитать файл из NFS с помощью Java. Я пытаюсь использовать https://github.com/raisercostin/yanfs со следующим кодом: XFile Xf = новый X-файл ( "NFS: //192.168.1.183/nfs-share-folder/myfile.zip"); nfsXFileExtensionAccessor nfsx = (nfsXFileExtensionAccessor) xf.getExtensionAccessor (); // войти в nfsx.loginPCNFSD ( "mynfssrv", "evyatarel", "мойпароль")) {// Проверка разрешения, если это (xf.canRead ()) System.out.println ( "права чтения OK"); еще System.out.println ( «Нет чтения разрешения»); // Как читать содержимое файла? У меня есть разрешение на чтение файла, но как я могу получить содержимое файла? Любые предложения / Другие методы для чтения файлов из NFS? Спасибо!
Evyatar
1

голосов
1

ответ
144

Просмотры

Ruby: кросс-платформенный способ определить, установлен ли NFS?

Мне нужно, чтобы обнаружить, установлен ли NFS или нет на работающем сервере в моем коде Ruby. Если есть какой-то способ сделать это кросс-платформенный способом (или, по крайней мере, в UNIX / Linux)?
user80805
1

голосов
1

ответ
804

Просмотры

memcached over NFS?

Я смотрел на производительности настройку среды, и я установка ряд параметров для повышения производительности NFS, от простых вещей, как установка параметров монтирования, на продвинутый, как установку параметров SYSCTL и даже считали позволяя большие кадры на сетевых картах и брандмауэр. Я бегу NFS и Memcached на том же сервере, и я чувствую, что я мог бы получить прирост производительности путем удаления Memcached нагрузку сети. Некоторая информация окружающей среды в порядке первого: 4 балансировки нагрузки веб-серверов в DSR настройки, подключен к ASA 5510. 2 MySQL серверов ведущий / мастер репликации. 1 приложение / файловый сервер работает Memcached и NFS. Добавление дополнительных серверов не на столе для обсуждения. Веб-серверы служат их содержание от экспортируемых монтирует NFS. NFS устанавливается на веб-серверах настроены использовать UDP вместо TCP. Веб-серверы используют лак перед Apache / PHP, лак настроен только использовать изображения, CSS и JavaScript, с помощью отдельных поддоменов для каждого. грузы сайта в течение 5 секунд, большую часть времени, но иногда, даже в ночное время, когда трафик низкий, то мы увидим, что займет больше времени, чтобы загрузить. Иногда его до 10 секунд. Конечно, это не плохо, но нет никаких причин, мы не должны быть в состоянии увидеть более высокую производительность. Все файлы подаются через NFS. Кстати, я приобрел этот клиент в последнее время, после того, как их оригинальные технологии поменялись местами. То, что я думал, что я мог / должен делать, так как сервер оптимизирован теперь для подключения NFS, был для настройки Memcached для запуска в режиме Сокет, который отключает его функциональные возможности сети, а затем поместить Сокет на экспортируемую файловую систему. Таким образом, веб-серверы все еще может подключиться к Memcached,
Speeddymon
1

голосов
1

ответ
454

Просмотры

What would cause a rare lchown() failure: Operation not permitted

У меня есть тест коды C ++, что в большинстве трасс проходит, но в некоторых редких случаях не удается из-за вызов lchown () в моем приложении испытуемый, в противном случае с Errno EPERM и strerror: Операция не допускается. Код в вопрос в моем приложении, как это: :: lchown ( "pathnameToFile", uid_t (500), static_cast (-1)); // Эта строка работает :: lchown ( "pathnameToFile", static_cast (-1), gid_t (500)); // Это не удается редко Кроме того, в случае теста итерации, что не удалось, предварительную попытка создать символическую ссылку на «pathnameToFile» также не удался создать его в моем приложении, но код не обнаружил ошибки (следующий возвращается 0) : :: символическая ( "pathnameToFile", "linkToPathname"); Я полагаю, эти две вещи связаны между собой. Это работает на 32 битной Centos 4 машины. «PathnameToFile» существует на NFS смонтированный раздел. Может ли быть каким-то гонка условия между создаваемым файлом и ссылкой на него и lchown неудачи, потому что NFS не отражает его существования еще? Через какое-то время прошло, однако, символическая ссылка появилась хотя Чаун осталась без эффекта. «PathnameToFile» живет в директории с разрешениями: drwxrwxr-х 2 мне мне 22 июня 4096 17:33. -rw-RW-r-- 1 корень меня 33 22 июня 17:33 pathnameToFile lrwxrwxrwx 1 корень меня 8 22 июня 17:33 LinkToPathname -> pathnameToFile ГУР 500 является основной группой для 'меня', другая группа может быть «колеса ». > группы Me руль Может ли быть каким-то гонка условия между создаваемым файлом и ссылкой на него и lchown неудачи, потому что NFS не отражает его существования еще? Через какое-то время прошло, однако, символическая ссылка появилась хотя Чаун осталась без эффекта. «PathnameToFile» живет в директории с разрешениями: drwxrwxr-х 2 мне мне 22 июня 4096 17:33. -rw-RW-r-- 1 корень меня 33 22 июня 17:33 pathnameToFile lrwxrwxrwx 1 корень меня 8 22 июня 17:33 LinkToPathname -> pathnameToFile ГУР 500 является основной группой для 'меня', другая группа может быть «колеса ». > группы Me руль Может ли быть каким-то гонка условия между создаваемым файлом и ссылкой на него и lchown неудачи, потому что NFS не отражает его существования еще? Через какое-то время прошло, однако, символическая ссылка появилась хотя Чаун осталась без эффекта. «PathnameToFile» живет в директории с разрешениями: drwxrwxr-х 2 мне мне 22 июня 4096 17:33. -rw-RW-r-- 1 корень меня 33 22 июня 17:33 pathnameToFile lrwxrwxrwx 1 корень меня 8 22 июня 17:33 LinkToPathname -> pathnameToFile ГУР 500 является основной группой для 'меня', другая группа может быть «колеса ». > группы Me руль -rw-RW-r-- 1 корень меня 33 22 июня 17:33 pathnameToFile lrwxrwxrwx 1 корень меня 8 22 июня 17:33 LinkToPathname -> pathnameToFile ГУР 500 является основной группой для 'меня', другая группа может быть «колеса ». > группы Me руль -rw-RW-r-- 1 корень меня 33 22 июня 17:33 pathnameToFile lrwxrwxrwx 1 корень меня 8 22 июня 17:33 LinkToPathname -> pathnameToFile ГУР 500 является основной группой для 'меня', другая группа может быть «колеса ». > группы Me руль
WilliamKF
1

голосов
1

ответ
2.7k

Просмотры

NFS разные разрешения для подкаталогов [закрыт]

У меня есть следующий / и т.д. / экспорт конфиг для моего сервера NFS. / Корень / акция * (RW, FSID = 0, no_root_squash) / корень / доля / музыка анна (RW, no_root_squash) Алекс (RW, no_root_squash) / корень / доля / видео анна (RW, no_root_squash) Алекс (ро, no_root_squash) Я хочу анна иметь Rw доступ к обоим каталогам. Я хочу, чтобы Алекс иметь только ро доступ к / корневой / доли / видео. Проблема с моей текущей конфигурацией является то, что они оба имеют Rw доступа. Если изменить первую строку в / корень / акция * (ро, FSID = 0, no_root_squash) Он переписывает все остальные строки и делает все каталоги только для чтения. Как я могу сделать первую линия вступит в силу только на / корне / акции? Спасибо.
Dragos Foianu
1

голосов
1

ответ
609

Просмотры

WMI для определения типа файловой системы удаленного монтирования

В WMI, как я могу найти тип файловой системы удаленного смонтированной файловой системы? т.е. CIFS, NFS, и т.д. ... Я могу получить тип монтирования из: класса MSFT_Disk, но как насчет удаленных и их логических выражений файловой системы? Заранее спасибо,
aassaf
1

голосов
1

ответ
411

Просмотры

Как запустить приложение Symfony2 на Vagrant без NFS (на Windows, к примеру)?

приложение Symfony2 очень медленно при запуске его с настройками по умолчанию на Бродячей / Windows. Что можно сделать?
Włodzimierz Gajda
1

голосов
1

ответ
607

Просмотры

отказ SSH ключ аутентификации с общим / дома и OpenLDAP

Для нашей сети мы пользователям удалось полностью через OpenLDAP и домашний каталог монтируется с центрального сервера с помощью NFS. Сервер является хозяином, это где / дом локально существует и работает сервер OpenLDAP. Сервер B монтирует это и пользователи могут войти тонкодисперсных с помощью ключей SSH. Пользователи могут войти с помощью ключей SSH на сервере А также. Сервер C устанавливается во всех отношениях идентичных сервера B. Пользователи могут войти используя их OpenLDAP-созданных учетных данных, SSH, и их / дома правильно установлен. Тем не менее, они не в состоянии использовать свои ключи SSH. Они должны представить пароль. Между серверами В и С почти все конфигурационные файлы одинаковы. Все серверы работают CentOS7 и имеют одинаковую /etc/nsswitch.conf, / и т.д. / SSH / sshd_config, /etc/nslcd.conf, системы аутентификации и Sshd PAM файлы. Любая идея, где проблема может заключаться? Редактировать: Полный вывод на SSH выглядит следующим образом на сервере B: debug1: открытый ключ RSA Предложения: /home/me/.ssh/id_rsa debug3: send_pubkey_test debug2: мы послали пакет ОткрытыйКлюча, ждать ответа debug1: Сервер принимает ключ: pkalg SSH -rsa Блен 279 а на с выходом же секции не дает ответа на ключ: debug1: открытый ключ RSA Предложение: /home/me/.ssh/id_rsa debug3: send_pubkey_test debug2: мы послали пакет ОткрытыйКлюч, подождите для ответа debug1: авторизаций, которые могут продолжаться: ОткрытыйКлюча, GSSAPI-keyex, GSSAPI-с-микрофоном, пароль для дальнейшего добавить к таинственности, пытаясь запустить SSHd вручную с многословным флагом на работах C. Это, кажется, только в том случае, когда Systemd автоматизирует его. ждать ответа debug1: Сервер принимает ключ: pkalg SSH-RSA Блен 279 А на С выходом же секция не дает ответ на ключ: debug1: открытый ключ RSA Предложения: /home/me/.ssh/id_rsa debug3 : send_pubkey_test debug2: мы послали пакет ОткрытыйКлюча, ждать ответа debug1: авторизации, которые могут продолжать: ОткрытыйКлючи, GSSAPI-keyex, GSSAPI-с-микрофоном, пароль для дальнейшего добавления в странность, пытаясь запустить SSHd вручную с многословным флагом на C работает. Это, кажется, только в том случае, когда Systemd автоматизирует его. ждать ответа debug1: Сервер принимает ключ: pkalg SSH-RSA Блен 279 А на С выходом же секция не дает ответ на ключ: debug1: открытый ключ RSA Предложения: /home/me/.ssh/id_rsa debug3 : send_pubkey_test debug2: мы послали пакет ОткрытыйКлюча, ждать ответа debug1: авторизации, которые могут продолжать: ОткрытыйКлючи, GSSAPI-keyex, GSSAPI-с-микрофоном, пароль для дальнейшего добавления в странность, пытаясь запустить SSHd вручную с многословным флагом на C работает. Это, кажется, только в том случае, когда Systemd автоматизирует его. GSSAPI-с-микрофоном, пароль Для дальнейшего добавить к таинственности, пытаясь запустить SSHd вручную с многословным флагом на работах C. Это, кажется, только в том случае, когда Systemd автоматизирует его. GSSAPI-с-микрофоном, пароль Для дальнейшего добавить к таинственности, пытаясь запустить SSHd вручную с многословным флагом на работах C. Это, кажется, только в том случае, когда Systemd автоматизирует его.
Patsy
1

голосов
1

ответ
455

Просмотры

Любой способ сделать удаленное поколение MD5 файлов быстрее?

Мы храним файлы на двух серверах и есть наш основной сайт на сервере небольшой SSD, мы с помощью NFS гору, чтобы дать пользователям возможность просматривать файлы на основном сайте. Мы также отображать MD5 на странице загрузки файла. Проблема бытия, с большими файлами, сервер SSD должен загрузить файл перед MD5 оно. Этот процесс может занять некоторое время, делая некоторые страницы занять до 10 секунд, чтобы загрузить. Мы не можем хранить файлы локально, как пространство является проблемой. Тестирование подтверждает, что это проблема с временем загрузки вызывает зависания. корень @ SSD: / путь / md5sum file.zip a5044a42e53c6537165c6547a18da284 Этот сервер пришлось захватить файл удаленно с NFS монтировать местоположение, в конце концов это заняло 11 секунд, прежде чем получить MD5. корень @ ес: / путь / md5sum file.zip a5044a42e53c6537165c6547a18da284 Этот сервер, где файл хранится на сервере без монтирования MD5'ing занимает всего 1 секунду. Любые предложения, было бы здорово, спасибо.
Jone Does
1

голосов
1

ответ
1.1k

Просмотры

Cannot change file ownership from Vagrant VM

I have been using NFS mounts in my Vagrant VM for months without any problems running our puppet provisioning. As you can know each time you create folder using puppet you have to specify its owner and group otherwise defaults are used. We have set default to root:root for some reason and this is applied to some other files / directories as well. Puppet trying to chown file to root:root and it fails but it should not because chown exits with 0 without changing the owner or group. This behavior is same on NFS and VirtualBox Share but puppet fails only when using NFS share. The question is - is there any reasonable explanation why puppet has started to fail on changing ownership of files? It used to work for months and I'm still running the same version of Vagrant and VirtualBox. I have found a lot of questions regarding similar problem (changing ownership) and found it is ok that owner and group is not changed. I just don't know why puppet fails because of this only on NFS. Vagrantfile mount section config.vm.synced_folder "../puppet", "/root/puppet", type: "nfs", mount_options: ["rw", "tcp", "fsc", "nolock", "noacl", "async"], nfs_udp: false config.vm.synced_folder ".", "/media/src/project", type: "nfs", mount_options: ["rw", "tcp", "fsc", "nolock", "noacl", "async"], nfs_udp: false Puppet log on NFS Info: Applying configuration version '1471704237' Notice: /Stage[main]/Farm_tooling::Webgrind/Exec[configure]/returns: executed successfully Notice: /Stage[main]/Ulozto::Web::Lab/File[/media/src/ulozto/.local/]/owner: owner changed '501' to 'root' Error: Failed to set group to '0': Operation not permitted @ lchown_internal - /media/src/ulozto/.local Error: /Stage[main]/Ulozto::Web::Lab/File[/media/src/ulozto/.local/]/group: change from dialout to root failed: Failed to set group to '0': Operation not permitted @ lchown_internal - /media/src/ulozto/.local Puppet log on VirtualBox share Info: Applying configuration version '1471704248' Notice: /Stage[main]/Farm_tooling::Webgrind/Exec[configure]/returns: executed successfully Notice: /Stage[main]/Ulozto::Web::Lab/File[/media/src/ulozto/.local/]/owner: owner changed 'vagrant' to 'root' Notice: /Stage[main]/Ulozto::Web::Lab/File[/media/src/ulozto/.local/]/group: group changed 'vagrant' to 'root' Notice: /Stage[main]/Ulozto::Pornfile::Remote/File[/var/www/pornfile-web/PornFile/App]/owner: owner changed 'vagrant' to 'root' Directory listing after puppet run on NFS drwxr-xr-x 4 501 dialout 136 Aug 19 05:40 .local I actually do not know what dialout is but 501 is ID of my account - uid=501(northys). After puppet run owner is still the same. Directory listing after puppet run on VirtualBox share drwxr-xr-x 1 vagrant vagrant 136 Aug 19 05:40 .local After puppet run owner and group is still vagrant:vagrant but puppet didn't fail on changing it like in NFS mount case.
Northys
1

голосов
2

ответ
1.9k

Просмотры

Access to NFS-Share from Java-Application

I am trying to access a NFS share on a CentOS 6.3 System from within a Java application. I've tried the following libraries but can't get either to work: YaNFS Trying to access the NFS Share with YaNFS I run into an NfsException with ErrorCode 10001 (NFSERR_BADHANDLE). Sometimes the text of the Exception says "Stale NFS file handle". My code for YaNFS is: public static void main(String[] args) { XFile xf = new XFile("nfs://192.168.1.10/nfs-share"); nfsXFileExtensionAccessor nfsx = (nfsXFileExtensionAccessor)xf.getExtensionAccessor(); if (! nfsx.loginPCNFSD("192.168.1.10", "rpx-nfs-user", "Test123!")) { System.out.println("login failed"); return; } if (xf.canRead()) System.out.println("Read permission OK"); else System.out.println("No Read permission"); } nfs-client-java Trying to initialize Nfs3 object with "nfs-client-java" I get a MountException that looks like: com.emc.ecs.nfsclient.mount.MountException: mount failure, server: 192.168.1.205, export: /home/share, nfs version: 3, returned state: 13 at com.emc.ecs.nfsclient.nfs.nfs3.Nfs3.lookupRootHandle(Nfs3.java:359) State 13 on this point says Permission denied. I can access this share from another CentOS-System (with authorized to access to this folder uid and gid) by mounting this share and from Windows-System(with authorized to access to this folder login and password) as well. Is there anyone, who has already solved this problem? Or maybe someone can help me get further?
AndySpu
1

голосов
1

ответ
1.2k

Просмотры

Акции ZFS NFS не экспортируются в Ubuntu 16.04

Я настраиваю ZFS и NFS на Ubuntu Server 16.04LTS и имею странный вопрос, который вызывает у меня сходить с ума. Я настроил ZFS и NFS с использованием ZFS акций, как описано в https://pthree.org/2012/12/31/zfs-administration-part-xv-iscsi-nfs-and-samba/. Как вы можете увидеть в моем журнале ниже, хотя я поставил ZfS-акцию для запуска ZFS доля -a во время загрузки, акции по-прежнему не экспортируются. Даже страннее, что доля -a ZFS еще не когда я вручную запустить его. Я могу только получить акции на ZFS работать, если сбросить свойство sharenfs одной из акций, а затем повторно запустить ZFS доля -a. Ниже $ showmount -e списка экспорта для APU: / MNT $ Суд локального ZFS совместно -a $ showmount -e Экспортировать список для APU: / мнт $ Sudo локального ZFS доля pool1 не может делиться 'pool1':
Jaime R.
0

голосов
0

ответ
6

Просмотры

как конфиг `PPCNSFDOPTS` на последней версии NFS-утилиты 2.3.3.1

Мой NFS CONFIG в /etc/default/nfs-kernel-server.conf на Ubuntu 18.04 RPCNFSDOPTS = «- Nfs-версию 2,3,4 --debug --syslog», но там не relavant настроить на последнюю версию NFS-Utils при переходе на ArchLinux. Нужно ли мне редактировать /etc/nfs.conf или другой файл?
Charles
1

голосов
1

ответ
218

Просмотры

Co найти стручки и постоянные объемы в kubernetes

У меня есть kubernetes кластера распределены по двум зонам, А и В. Я использую тома NFS для постоянного хранения. У меня есть объемы Nfs в обеих зонах. Я создаю динамический набор 2 реплик, которые будут распределены по этим зонам (я использовал стручок анти-сродство для достижения этой цели). Теперь я хочу, стручки в зоне А, чтобы использовать тома в зоне А и те, в зоне В, чтобы использовать тома в зоне B. Я могу добавить ярлыки на постоянные том и соответствовать требованиям настойчивого объема с этими метками. Но как я могу убедиться, что пвх для стручка не получает привязывается к ФВ в другой зоне?
raiyan
0

голосов
0

ответ
0

Просмотры

Есть ли способ, чтобы установить ведомый узел в качестве второго главного узла, если предыдущий хозяин идет вниз в ОПЗЕ-кластер-службе

Я пытаюсь некоторый эксперимент с ОПЗ кластера, что я заметил, это то, что сеть кластера работает нормально, когда я начала мастер-узел, а затем присоединяется ведомые узлы к этому мастеру с помощью --bootstrap. Вопрос в том, если по какой-то причине главный узел выходит из строя, то все его подчиненные узлы также отсоединяется от кластера-сети. Так что я просто хочу знать, что есть какой-нибудь способ, если мой главный узел выходит из строя, то он будет автоматически (с некоторыми флажками или сценарий) сделать один из раба в качестве ведущего (Таким образом, кластер-сеть будет поддерживать).
Yuvraj Takey
1

голосов
1

ответ
0

Просмотры

Что насчет Бобы в kubernetes, когда NFS сервер вниз

Я довольно новый на Kubernetes.Assume, что у меня есть 2 рабских 1 мастер-кластер и у меня есть NFS server.I создать р на NFS и пвх для pod.What если NFS сервер вниз? Является ли гондола до сих пор продолжает работать?
Adi Soyadi
1

голосов
2

ответ
0

Просмотры

Распределенная исходный файл

Глядя на программное решение для хранения больших файлов (> 50MB - 1.5GB), распределенных между несколькими серверами. Мы рассмотрели MogileFS, однако, учитывая существующие требования программного обеспечения, должны иметь интерфейс NFS. Предпочел бы с открытым исходным кодом, однако, открытым для всех вариантов.
1

голосов
2

ответ
0

Просмотры

экспорт RAW устройства

Как я могу экспортировать RAW устройство для использования базы данных с использованием NFS или CIFS?
Albert
1

голосов
1

ответ
0

Просмотры

есть некоторые distrbuted stroage как Hadoop butwith преимущества ZFS?

Есть некоторые распределенное хранение как Hadoop, но с преимуществами ZFS?
jjonas
1

голосов
1

ответ
0

Просмотры

Как масштабировать вверх по применению Zend Framework, которая использует Zend_Search_Lucene

Я недавно выпустила приложение ZF в производственной среде, и я получаю некоторые проблемы, потому что это приложение работает в трех различных случаях за балансировки нагрузки. Эти три экземпляра приложения совместно используют одни и те же индексы Lucene через NFS. Я просто понял, NFS обескураживает Zend Framework документации. Как я должен развернуть мое приложение?
texai
1

голосов
1

ответ
1.3k

Просмотры

Как использовать LDAP при работе с акциями Nfs для домашнего каталога?

Недавно я настроить сервер LDAP в моей сети. Я ищу для подключения всех моих машин Линукс к нему, однако, прежде чем я продолжу, я должен выяснить несколько вещей. Я планирую на монтирование доли Nfs к моей сане для всех домашних папок и хочу назвать его / дома / поэтому при создании учетной записи LDAP я затем создать им папку для их домашних каталогов. С тем, что у меня есть, чтобы иметь Сан - приложенный к LDAP, так что я могу установить владельца этой папки для пользователя, или я должен иметь корень владельцем / дома / папки, но позволяют пользователю г / ш / х ничего внутри, так они могут создавать все, что они хотят? Если я не подключить ООПП к LDAP я могу сделать CHOWN 10000: 100000? как в идентификатор пользователя и группы вместо имени? Кроме того, я заметил, когда я создать локальную учетную запись на моих машинах Ubuntu я получаю пользователь Дейва и группу Дэйва. Является ли это соглашением или является пользователем Дэйва и группой пользователей достаточных? Я не смог найти хорошую документацию по стандартной практике, когда речь идет о структуре LDAP и как настроить домашние каталоги. Любая помощь будет оценен по достоинству!
David Wallace
1

голосов
1

ответ
3.6k

Просмотры

как ограничения на количество групп для одного пользователя в centos4 / 5

Если один пользователь имеет более чем 16 групп, это приведет к тому, что группы не работают для контроля разрешения. Как неограниченном это число групп на одного пользователя в Centos4 / 5?
wei
1

голосов
3

ответ
6.3k

Просмотры

Крепление размонтировать без Судо

Я пытаюсь написать скрипт, который будет SSH в хозяин, выполнить операцию монтирования там, запускать другие команды и выйти. другие команды (CD, ф) не требуют SUDO privelages но параметр монтирования requries разрешения SUDO. Я хочу написать скрипт, который будет делать: SSH пользователь @ сервер "монтирования -t NFS xx.xx.xx.xx: / / NFS -o rsize = 4096, wsize = 4096; ср PQR сначала, размонтировать / NFS;" и некоторые другие не Суда команда. Как я могу сделать это без опции SUDO и без ввода каких-либо паролей, когда скрипт запущен.
Shehbaz Jaffer
1

голосов
2

ответ
1.1k

Просмотры

Nagios SNMP проверка процесса висит на несвежем монтировании

Я только что получил дал это задание на работе, и это WAY над моей головой. У нас есть скрипт мониторинга Nagios, который идет и и проходит проверку процесса. У нас были сервер NFS, который был возникли проблемы в последнее время, и, если она идет вниз, все машины, которые он установлен начать неконкурентоспособную проверку процесса, так как монтирование NFS завис и повис проверку SNMP. Сценарий проверки является Nagios скрипт на Perl, который использует Net :: SNMP библиотеки. Я уверен, что это только общий Nagios сценарий. Сценарий находится в http://nagios.manubulon.com/check_snmp_process.pl Пожалуйста, помогите мне понять, что происходит. EDIT: ООППЫ крепления в вопросе для оракула RMAN резервного копирования, которые требуют монтирования будут трудно.
gfreestone
1

голосов
2

ответ
1.3k

Просмотры

Как смонтировать корневой каталог Docker контейнера в качестве точки монтирования NFS

Я новичок в докер, и я пытаюсь установить корневой каталог Docker контейнера в качестве точки монтирования NFS. например, у меня был тест монтирования точки NFS: / Главная / пользователь / 3243, и я пытаюсь: докер запустить -это -v «тест: / Главная / пользователь / 3243»: / centos7 / бен / Баш абсолютно, это не удалось. Так что я попытался это: смонтировать -t тест Nfs: / Главная / пользователь / 3243 / шоссе / NFS / 3243 Докер запуска -это -v / шоссе / NFS / 3243: / centos7 / бен / Баш но опять-таки не удалось, так как сделать этот? Может быть разработан?
Guy
1

голосов
1

ответ
830

Просмотры

Последствия воздействия / вар / Lib / докер над NFS, чтобы служить хостов с ограниченной памятью

Каковы последствия экспортирующей / вар / Lib / докер над NFS? Идея заключается в том, чтобы хранить Docker изображения на сервере и экспортировать его в хосты, имеет ограниченные память для хранения и запуска контейнеров. Это было бы полезно, чтобы избежать того, чтобы каждый хост загружать и хранить свою собственную библиотеку Docker изображения. Хозяева могут использовать FS-Cache, чтобы ограничить передачу данных по сети.
koshyg
1

голосов
1

ответ
511

Просмотры

«Неизвестная ошибка потока в трубе» и «ENOTDIR: не каталог, откройте» при запуске Gulp

Я бегу приложение Laravel на хуторе на Windows 8 машине. Я использую глоток elixix и Node.js компилировать файлы ресурсы, как SASS и .js файлы. Когда я запускаю команду глотка, ошибки ввод / вывод происходит: Сохранение в ... - ../www/css/admin.css stream.js: 74 бросок эр; // Необработанной ошибка потока в трубе. ^ Ошибка: ENOTDIR: не каталог, откройте '/home/vagrant/projects/site/www/css/admin.css' в Error (родной)
nexana
1

голосов
3

ответ
1.2k

Просмотры

GitLab 500 Ошибки при посещении страницы проекта

Я настраиваю GitLab Enterprise Edition для моей организации. Мы используем AWS EFS для хранения данных репо и два экземпляра, чтобы служить SSH и HTTP / HTTPS трафика с помощью AWS ELB. Объем EFS, распределяются между обеими случаями. Но когда я посещаю домашнюю страницу проекта после перезапуска службы мы видим 500 страницы ошибки. Мы попытались продолжить gitlab-CTL переконфигурируйте && рестарт gitlab-CTL, но не помогло. GitLab EE версия - 8.12.1-е-е 2 * Centos 7 (AWS EC2 Instance - m4.xlarge) AWS ELB для балансировки нагрузки SSH и HTTP / HTTPS Ошибка трафика в журналах ==> / вар / Журнал / gitlab / gitlab-рельсы / production.log "itops", "ID" => "Докер"} Завершенный 500 Внутренняя ошибка сервера в 145ms (ActiveRecord: 14.2ms) OpenSSL :: Cipher :: CipherError (плохой расшифровывать): приложение / модели / project.rb: 531 : в `import_url 'приложение / модели / project.rb: 567: в` external_import' приложение / модели / project.rb: 559: в `импорта? приложение / модели / project.rb: 575: в `import_in_progress«? приложение / контроллеры / projects_controller.rb: 95: в `шоу 'Библиотека / gitlab / request_profiler / middleware.rb: 15: в` называют' Библиотека / gitlab / промежуточного слоя / go.rb: 16: в `называют» Библиотека / gitlab / промежуточный слой / readonly_geo.rb: 29: в `==«называют> /var/log/gitlab/gitlab-rails/production.log "50", "_" => "1474877373459", "namespace_id" => "itops" "project_id" => "докер", "идентификатор" => "мастер"} Started GET "/ itops / грузчик / совершает / мастер" для 10.0.4.246 на 2016-09-26 8:09:40 +0000 обработки по Проекты :: CommitsController # показать, как HTML Параметры: { "namespace_id" => "itops", "project_id" => "докер", "ID" => "Мастер"} Завершено 500 Внутренняя ошибка сервера в 176ms (ActiveRecord: 16.8ms) ActionView :: Template :: Ошибка (плохой дешифрования): 1: - если @ project.mirror? 2: .prepend-топ-default.gray-контент-block.second-block.clearfix 3: - import_url = @ project.safe_import_url 4: .oneline.project-зеркально-текст 5: Этот проект отражается от # {link_to import_url , import_url}. 6: приложение / модели / project.rb: 531: в `import_url 'приложение / модели / project.rb: 587: в` safe_import_url' приложение / просмотров / проектов / совершает / _mirror_status.html.haml: 3: в `_app_views_projects_commits__mirror_status_html_haml___2300853211630423479_63495260' приложение / просмотры / проекты / совершает / show.html.haml: 35: в `_app_views_projects_commits_show_html_haml___2695203885719227520_58528080' приложение / контроллерах / проекты / commits_controller.rb: 27: в` шоу» Библиотека / gitlab / request_profiler / middleware.rb: 15: в `называет 'Библиотека / gitlab / промежуточным слой / go.rb: 16: в` называет' Lib / gitlab / промежуточный / readonly_geo.rb: 29: в `называют» Я импортировал проект Docker из GitHub. Все остальные страницы работают отлично (дерево / мастер, активность, Graph, трубопроводный, вопросы) только домашняя страница проекта и докер / коммиты / мастер показывает ошибку.
Nischay
1

голосов
1

ответ
65

Просмотры

strange system call semantics on nfs mount

Я пишу небольшую программу теста для () функций открытых в C @ открыт SuSE високосного 42,2 x64. К сожалению, файл создается получает -rwxrwxrwx разрешения, хотя я передаю 0644 функции открытой () после выполнения Umask (0); Может кто-нибудь пожалуйста, скажите мне, что я делаю не так? . (Я пример кода из открытой книги (ссылка) Вот мой код: #include #include #include #include #include #include #include INT основной (интермедиат ARGC, символ ** ARGV) {/ * Zugriffsrechte 644 * / mode_t режим = S_IRUSR | S_IWUSR | S_IRGRP | S_IWGRP | S_IROTH; Const символ * new_file; INT file_descriptor; / * Все Zugriffsrechte дер Einschraenkungsmaske erlauben * / Umask (0); / * Аргумент 2-дер-CMD от прямой линии auswerten * / если (ARGV [1 ] == NULL) {fprintf (STDERR, "использование:% S datei_zum_oeffnen \ п", * ARGV); вернуть EXIT_FAILURE; } New_file = ARGV [1]; file_descriptor = открыт (new_file, O_WRONLY | O_EXCL | O_CREAT, 0644); / * Или вар режим вместо (0644) * / если (file_descriptor == -1) {PError ( "Fehler Bei открыт"); вернуться EXIT_FAILURE; } Возвращение (EXIT_SUCCESS); } В любом случае - передача через 0644 или «режим» переменной как открытое () 'ы третий аргумент не работает, как ожидалось, и результат при выполнении программы (как нормальный пользователь) и вручая в имя файла: -rwxrwxrwx и, кроме того: файл принадлежит корню: корню, а не исполняющему пользователю ?! Что я должен изменить? } Возвращение (EXIT_SUCCESS); } В любом случае - передача через 0644 или «режим» переменной как открытое () 'ы третий аргумент не работает, как ожидалось, и результат при выполнении программы (как нормальный пользователь) и вручая в имя файла: -rwxrwxrwx и, кроме того: файл принадлежит корню: корню, а не исполняющему пользователю ?! Что я должен изменить? } Возвращение (EXIT_SUCCESS); } В любом случае - передача через 0644 или «режим» переменной как открытое () 'ы третий аргумент не работает, как ожидалось, и результат при выполнении программы (как нормальный пользователь) и вручая в имя файла: -rwxrwxrwx и, кроме того: файл принадлежит корню: корню, а не исполняющему пользователю ?! Что я должен изменить?
Ben
1

голосов
2

ответ
297

Просмотры

Kubernetes NFS: Используя имя службы вместо IP-адреса сервера жёстко

Я был в состоянии заставить его работать по примеру NFS в Kubernetes. https://github.com/kubernetes/kubernetes/tree/master/examples/volumes/nfs Однако, когда я хочу, чтобы автоматизировать все шаги, мне нужно найти PV файл IP и обновление NFS-pv.yaml с жестким закодированы IP-адрес, как указано в примере страницы ссылок. Замените недопустимый IP в Nfs PV. (В будущем, мы сможем связать их вместе, используя имена служб, но на данный момент, вы должны жёстко к IP.) Теперь, интересно, что, как мы можем связать их вместе с именами сервисов? Или это не возможно в последней версии Kubernetes (по состоянию на сегодняшний день, самая последняя стабильная версия v1.6.2)?
fatihonurIRL
1

голосов
1

ответ
429

Просмотры

Где объем NFS находится на kubernetes узел?

Я использую https://github.com/kubernetes/examples/blob/master/staging/volumes/nfs/README.md в качестве руководства. Я успешно установить выше работу. Однако я не могу найти где фактическое «NFS Volume» расположен по адресу - я предполагаю, что это просто обычный каталог. У меня есть две цели здесь: Для предварительного заполнения объема / каталог изначально Чтобы сделать резервную копию этого тома / каталога NFS-pvc.yaml apiVersion: v1 Тип: PersistentVolumeClaim метаданные: Название: NFS спецификации: accessModes: - ReadWriteMany storageClassName: «» ресурсы: запросы: хранение: 1Mi
Chris Stryczynski
1

голосов
1

ответ
3.5k

Просмотры

PersistentVolumeClaim не связан: «NFS-ру-резервирование-демо»

Я настраиваю лабораторию kubernetes, используя только один узел и научиться настройки kubernetes NFS. Я следую kubernetes Nfs примера шагу за шагом от следующей ссылки: https://github.com/kubernetes/examples/tree/master/staging/volumes/nfs Trying первой секции, NFS-серверная часть, выполнена 3 команды: $ kubectl создать -f примеров / тома / NFS / Provisioner / NFS-сервер GCE-pv.yaml $ kubectl создать -f примеров / тома / NFS / NFS-сервер rc.yaml $ kubectl создать -f примеров / тома / NFS / NFS -server-service.yaml я испытываю проблемы, когда я вижу следующее событие: PersistentVolumeClaim не связан: «NFS-р-резервирование-демо» Исследование сделано: https://github.com/kubernetes/kubernetes/issues/43120 HTTPS : //github.com/kubernetes/examples/pull/30 ни одна из этих ссылок выше помочь мне, чтобы решить проблему я испытываю. Я сделал, что он использует изображение 0.8. Образ: gcr.io/google_containers/volume-nfs:0.8 Кто-нибудь знает, что делает это сообщение означает? Clue и рекомендации о том, как устранить эту проблему очень высоко ценится. Спасибо. $ Докер Версия клиента: Версия: 17.09.0-се API версии: 1,32 Go версия: go1.8.3 Git совершить: afdb6d4 Built: Вт 26 сентября 22:41:23 +2017 OS / Arch: Linux / amd64 сервера: Версия: 17,09. 0-се версии API: 1,32 (минимальная версия 1,12) Перейти версия: go1.8.3 Git совершить: afdb6d4 Built: вт 26 сентября 22:42:49 +2017 OS / Arch: Linux / amd64 Experimental: ложь $ kubectl версия клиента версия: версия .Info {Кафедра: "1", Малую: "8", GitVersion: "v1.8.3", GitCommit: "f0efb3cb883751c5ffdbe6d515f3cb4fbe7b7acd", GitTreeState: "чистый", BuildDate: "2017-11-08T18: 39: 33Z", GoVersion :» 0 (0%) Kube-система Kube-планировщик-LAB-Kube-06 100m (5%) 0 (0%) 0 (0%) 0 (0%) Kube-система переплетения-нетто-7zlbg 20m (1%) 0 (0%) 0 (0%) 0 (0%) Выделенные ресурсы: (. Всего ограничения могут быть более 100 процентов, то есть, перегружена) процессора запросов пределы CPU Память просит ограничения памяти ---------- - ---------- --------------- ------------- 830m (41%) 0 (0%) 110Mi (1%) 170Mi (2%) События: Тип Причина Возраст От сообщение ---- ------ ---- ---- ------- Нормальный пуск 39м kubelet лабораторного Кубэ -06 Начиная kubelet. Нормальный NodeAllocatableEnforced 39м kubelet, $ Kubectl получить пвх ИМЯ СТАТУС ОБЪЕМ МОЩНОСТИ ДОСТУПА РЕЖИМЫ AGE Класс складирования NFS-ру-резервирования-демо До 14s $ kubectl получить события в последний раз видели FIRST ВИДЕЛИ COUNT ИМЯ ВИД подобъекте ТИП ПРИЧИНА ИСТОЧНИК СООБЩЕНИЙ 18m 18m 1 лабораторном Кубэ-06.14f79f093119829a Узел Нормальный пуск kubelet лабораторного Кубэ-06 Запуск kubelet. 18m 18m 8 лабораторного Кубэ-06.14f79f0931d0eb6e Узел Нормальный NodeHasSufficientDisk kubelet лабораторного Кубэ-06 Узел лабораторного Кубэ-06 статус сейчас: 14f79f122a32282d Узел Нормальный RegisteredNode controllermanager Узел лабораторного Кубэ-06 событие: Registered Node лабораторном Кубэ-06 в контроллер 17m 17m 1 лабораторном Кубэ-06.14f79f1cdfc4c3b1 Node Normal Начиная Кубэ-прокси, лаборатория-Кубэ-06 Запуск Кубэ-прокси. 17m 17m 1 лабораторном Кубэ-06.14f79f1d94ef1c17 Узел Нормальный RegisteredNode controllermanager Узел лабораторного Кубэ-06 событие: Registered Node лабораторном Кубэ-06 в 14м 14м контроллер 1 лабораторном Кубэ-06.14f79f4b91cf73b3 Узел Нормальный RegisteredNode controllermanager Узел лабораторного Кубэ-06 событий :
Makin
5

голосов
1

ответ
96

Просмотры

is_writable returns false for NFS-share, even though it is writable for the user www-data

У меня есть «файлы / CRM-закачивать» Родственник папку, куда я хочу, чтобы загрузить файлы. Мой код проверяет, является ли истинным is_writable () и только продолжается, если это так. Папка монтируется как доля NFS с Rw и втор = SYS. Я написал тестовый сценарий, который я также выполнить на апаче, чтобы увидеть права доступа, это результат: файлы / CRM-загрузка / php_touch времени модификации было изменено по настоящее время Моего эффективный UID на 33, но мой UID действительно 33 файлов / CRM-загрузка / принадлежат 33 и имеет разрешение 40777 is_readable ( 'файлы / CRM-загрузка /') дает истинное is_readable ( 'файлы / CRM-загрузка / php_touch') дает истинное is_writable ( 'файлы / CRM-загрузка /') дает ложные is_writable ( 'файлы / CRM-загрузка / php_touch') дает истинное is_writable ( 'файлы / CRM-загрузка / 25 /') дает истинное is_writable ( 'файлы / изображения /' ) Дают истинные file_exists ( 'файлы / CRM-загрузка /') дает истинные file_exists ( 'файлы / CRM-загрузка / php_touch') дает истинный некоторый стат UIDs: файлы / CRM-загрузку /: 33 файлам / CRM-загрузку / php_touch: 33 файлы / изображений /: 33 Итак: прикасаясь файлом на акции работает UIDs правильны реж имеет правильные разрешения is_writable для вложенных папок и файлов на акции возвращает истину Как это может быть, что только корневая папка смонтированного доли не доступна для записи и все остальное? Это убунт 18,04. клиент, нет SELinux работает ... прикасаясь файл на акции работает UIDs правильны реж имеет правильные разрешения is_writable для вложенных папок и файлов на возвращениях доли истинных Как это может быть, что только корневая папка смонтированного доли не доступна для записи и все остальное? Это убунт 18,04. клиент, нет SELinux работает ... прикасаясь файл на акции работает UIDs правильны реж имеет правильные разрешения is_writable для вложенных папок и файлов на возвращениях доли истинных Как это может быть, что только корневая папка смонтированного доли не доступна для записи и все остальное? Это убунт 18,04. клиент, нет SELinux работает ...
Sentenza
1

голосов
1

ответ
137

Просмотры

Bitbake чистый сбой с доступен только для чтения NFS SSTATE КЭШ

Я пытаюсь только для чтения кэша SSTATE, где несколько рабочих мест чтения из кэша для ускорения сборки настройки. BitBake -c чистый не удается. Я хотел бы, чтобы очистить текущий рабочий каталог для текущего рецепта и не очистить кэш SSTATE. (У меня есть мастер работа, заполняющую этот кэш). Кто-нибудь сталкивался этому вопросу? Из-конечно, мы можем удалить SSTATE_DIR и выдает команду, но мне было интересно, если есть лучшие решения. Благодарности ЖУРНАЛЫ: ОШИБКА: билд do_clean Ошибка Ошибки: Traceback (самый последний вызов последнего): ... Файл "sstate_eventhandler (е)", строка 13, в sstate_eventhandler ... OSError: [Errno 30] только для чтения файловой системы: '/ шоссе / NFS / yocto_build / sstate-кэш / d 6' ОШИБКА: Задача 0 (recipe-name.bb, do_clean) потерпел неудачу с кодом выхода '1'
Kumar
1

голосов
1

ответ
1.3k

Просмотры

Что происходит в NFS, если 2 или более серверов пытаются написать один и тот же файл одновременно?

Я работаю на PHP веб-приложение, что делает автоматическое изменение размеров изображений, и я имею в виду хранения кэшированные копии на NFS установлен NAS так легко для меня, чтобы очистить кэш, когда изображения обновляются. Единственное, что я беспокоюсь о том, что происходит в целом с NFS, если 2 или более серверов в кластере пытаются создать один и тот же файл кэша изображений в то же время? Там очень хороший шанс, что когда кэш получает промывать обновления, чтобы они могли сталкивающиеся так, но у меня нет отличного способа проверить этот сценарий в развитии, потому что я только работал на одном поле. Любой человек с опытом по этому вопросу?
user126715
1

голосов
3

ответ
85

Просмотры

Сбор файлов из многих машин?

У меня есть много машин (20+), соединенных в сеть. каждая машина имеет доступ к центральным базам данных, запросы его, обрабатывает информацию опрашивается, а затем записывает результаты в файлы на своем локальном жестком диске. После обработки, я хотел бы иметь возможность «захватить» все эти файлы (от всех удаленных машин) обратно в основную машину для хранения. Я думал, что из трех возможных способов сделать это: (1) Rsync к каждой удаленной машине от главной машины, и «спросить» для файлов (2) Rsync от каждой удаленной машины к главной машине, и «отправить» файлы ( 3) создать общий ресурс NFS на каждой удаленной машине, к которой главная машина может получить доступ и читать файлы (не «Rsync» не требуется в таком случае) один из способов лучше, чем другие? есть ли лучшие способы я не знаю? Все машины используют Ubuntu 10.04LTS.
user3262424

Просмотр дополнительных вопросов