Это была похожая вещь, на которую я жаловался, потому что у меня только один домен, у меня нет нескольких доменов. В подобном сценарии наличие доменных имен на пользовательском очень полезно. Но... Мы не хотим, чтобы это, верно?
Изменить ваш /etc/sssd/sssd.conf
иметь эти строки под вашей [домен...]
строфа.
use_fully_qualified_names = False
Перезапустите SSSD. Обычно я сначала очищаю кэш на всякий случай.
service sssd stop
rm -rf /var/lib/sss/db/*
service sssd start
И повторите попытку. После этого команда getent
должна выдать правильный отчет.
[lleba@bro-mg-01 ~]$ getent passwd lleba@bromosapien.net
lleba:*:10000:10000:Louis L:/home/lleba:/bin/bash
[lleba@bro-mg-01 ~]$ getent passwd lleba
lleba:*:10000:10000:Louis L:/home/lleba:/bin/bash
-121--194834-
Возможно, в принципе. Но ни одна из необходимых работ не была проделана. ncurses основан на POSIX termios , и буферы кадров не имеют к этому никакого отношения.
PDCurses был портирован для использования SDL ( Simple Direct Media ), поэтому это «выполнимо».
-121--165979-
Один из способов: POSIXly:
$ echo "lost
load
linux
loan
linux" | sed -e/linux/\{ -e:1 -en\;b1 -e\} -ed
или короче:
sed -n '/linux/,$p'
или даже короче:
sed '/linux/,$!d'
Для читателей, которые задаются вопросом, почему я предпочитаю более длинную по сравнению с более короткой версией, более длинная версия будет выполнять только i/o над остальной частью файла, в то время как использование диапазонов может повлиять на производительность, если 2-й адрес является регексом, а регрессы:
Рассмотрим:
$ time seq 1000000 | sed -ne '/^1$/{' -e:1 -en\;b1 -e\}
=====
JOB sed -e '/^1$/,$d'
87% cpu
0.11s real
0.10s user
0.00s sys
с:
$ time seq 1000000 | sed -e '/^1$/,/1000000/d'
=====
JOB sed -e '/^1$/,/1000000/d'
96% cpu
0.24s real
0.23s user
0.00s sys
вы можете увидеть различные между двумя версиями. Со сложным регексом будет большая разница.
Создайте файл в /etc/profile.d
с именем hadoop.sh
.
Добавьте эти строки в файл:
export HADOOP_HOME=/app/hadoop-2.7.3
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export PATH=$HADOOP_HOME/bin:$PATH
JAVA_HOME
также необходимо установить для работы Hadoop, который я добавил выше, при условии, что вы используете Java 1.8.0.
Сделать файл исполняемым:
chmod +x /etc/profile.d/hadoop.sh
Каталог bin
для Hadoop будет добавляться к пути каждого пользователя при входе в систему.