Вопросы с тегами [python-2.7]
28488 вопросы
1
голосов
3
ответ
1.4k
Просмотры
PyTest: тест, функция был вызван в заявлении, если
У меня есть функция, которая рассматривает три различных случая, и для каждого случая вызывает другую функцию, как в примере ниже четкости my_fun (вход): если вход == 1: fun1 (), если вход == 2: fun2 (), если входное == 3: fun3 () Я хотел бы написать тест для функции my_fun с помощью py.test, но я не знаю, как я могу проверить, если надлежащее функция была вызвана для данного входа?
1
голосов
3
ответ
48
Просмотры
Макс ключ из другого словаря значений функции в Python
У меня есть словарь статистика = { 'OK': 0, 'ПРОПУСТИТЬ': 1, 'ИСКЛЮЧЕНИЕ': 2, 'WARN': 3, 'ERROR': 4 'FATAL': 5} Я получаю значения из другой программы что дает словарь, как этот my_values = { «Web»: OK «Хост»: WARN, «System»: НЕУСТРАНИМОГО} Теперь я хочу, чтобы сравнить значения из my_values с ключами статистики и получить высокий результат. Например: если my_values = { 'Web': OK 'Хост': WARN, 'Система': FATAL} фикцию должен возвращать FATAL если my_values = { 'Web': OK 'Хост': WARN, 'Система': ERROR } фикцию должен возвращать ERROR, если my_values = { «Web»: OK «Хост»: WARN, «Система»: WARN} фикцию должен вернуться WARN до сих пор я до здесь, это дает только максимальные значения в поддавки Dict. оператор импорт Защита high_value (my_value): Статистика = {»
1
голосов
1
ответ
89
Просмотры
Python 2/3 Asyncio в 2019 году
Я должен держать мое приложение совместимо с Python 2 и 3 одновременно. У меня есть некоторый код, как в следующем, что я хочу, чтобы иметь возможность асинхронно вызывать функцию, а затем ждать, пока все мои фьючерсы будут решены. Код: запросы на импорте # Это будет возвращать будущую четкость get_xhr (URL): возвращение requests.get ( 'https:. // WWW {} .com'.format (URL)) # Это возвращает массив фьючерсы DEF get_search_engines ( ): URLS = [ 'Google', 'Yahoo', 'Бинг'] возвращение [get_xhr (URL) для URL в адресах] # Здесь я хочу подождать, пока все фьючерсам быть решены get_search_engines () печать ( "Все запросы сделано ') Asyncio асинхронной / Await кажется совместима только с Python 3. Что является лучшим способом, чтобы иметь возможность запускать функции асинхронной то будет совместим как для питона 2/3?
1
голосов
1
ответ
43
Просмотры
Подсчет вхождений элементов одного массива в другой массив
Я хочу найти частоту элементов данного одномерного массива Numpy (arr1) в другой одномерный массив Numpy (arr2). Arr1 массив содержит элементы без каких-либо повторений. Кроме того, все элементы в arr1 являются частью множества уникальных элементов arr2 Рассмотрим это в качестве примера, arr1 = np.array ([1,2,6]) arr2 = np.array ([2, 3, 6, 1 , 2, 1, 2, 0, 2, 0]) в настоящее время я использую следующие: частота = np.zeros (LEN (arr1)) для г в диапазоне (LEN (arr1)): знак = np.where (arr2 == arr1 [я]) частота [я] = Len (знак [0]) печать частота >> [2, 4, 1] Указанный метод дает мне правильный ответ. Но я хочу знать, если есть лучший / более эффективный метод, чем тот, что я ниже.
1
голосов
1
ответ
61
Просмотры
питон: подпроцесс дает мне разные результаты при использовании Sudo
Я использую Python, чтобы сделать несколько тестов, и я получаю очень странные проблемы, как показано ниже: Во-первых у меня есть простой Баш скрипт с именем 1.sh: #! / Bin / ш эхо «НИЧЕГО» Тогда я сделать такой питон скрипт с именем тест .py в том же каталоге, как показано ниже: #! / USR / бен / питон импорт подпроцесса импорта ОС os.environ [ 'PS4'] = "ааа" Рез = subprocess.Popen ([ 'баш', '-x', ' 1.sh «], STDERR = subprocess.PIPE) печать res.stderr.readlines () к моему удивлению, когда я исполняю ./test.py, я получаю результат: НИЧЕГО [» ааа эхо НИЧЕГО \ п '], и когда Я исполняю SUDO ./test.py, я получаю: НИЧЕГО [ «+ эхо НИЧЕГО \ п»] Что мне нужно ааа, тогда она становится + теперь только из-за Судо. Зачем? Версия моего питона: 2.7.12 Система: Ubuntu 16.04
1
голосов
1
ответ
559
Просмотры
python proxy in selenium firefox headless not working
I am using Ubuntu Server 17.04.
I am trying to set my proxy into selenium. But it's not working. I am using proxy from https://stormproxies.com/. Basically only the ip i allowed it will be allowed to have proxy and then i have to use the ip that they give me to access it.
So basically it's not anything like this "ip:[email protected]:pass".
Let's say this is the proxy ip i m using
Example:
https://123.123.123.123:13028
The proxy works fine...cause I used it in scrapy.
But not working in in selenium..I have tried all the examples that I found and it gives me all kinds of errors. I'm thinking is because the examples are out-dated...maybe.
My selenium and everything it's up to date. I have geckodriver set to path...and everything. Selenium works fine if I don't add proxy.
Those are the main imports I am using for all.
from selenium import webdriver
from selenium.webdriver.common.proxy import *
from pyvirtualdisplay import Display
Those are all the scripts I have tried.
1st Example it doesn't give me any error but it doesn't connect to the proxy. when I try to get the ip in "https://whatismyipaddress.com" I get my true ip, not a proxy
display = Display(visible=0, size=(1920, 1080)).start()
myProxy = "https://123.123.123.123:13028"
proxy = Proxy({
'proxyType': ProxyType.MANUAL,
'httpProxy': myProxy,
'ftpProxy': myProxy,
'sslProxy': myProxy,
'noProxy': None
})
browser = webdriver.Firefox()
browser.get("https://whatismyipaddress.com/")
2nd Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1
proxies = "123.123.123.123:13028"
prox = Proxy()
prox.proxy_type = ProxyType.MANUAL
prox.http_proxy = proxies
prox.socks_proxy = proxies
prox.ssl_proxy = proxies
capabilities = webdriver.DesiredCapabilities.FIREFOX
prox.add_to_capabilities(capabilities)
driver = webdriver.Firefox(capabilities=capabilities)
3rd Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1
PROXY_PORT = '13028'
PROXY_HOST = '123.123.123.123'
fp = webdriver.FirefoxProfile()
print PROXY_PORT
print PROXY_HOST
fp.set_preference("network.proxy.type", 1)
fp.set_preference("network.proxy.http", PROXY_HOST)
fp.set_preference("network.proxy.http_port", int(PROXY_PORT))
fp.set_preference("network.proxy.https", PROXY_HOST)
fp.set_preference("network.proxy.https_port", int(PROXY_PORT))
fp.set_preference("network.proxy.ssl", PROXY_HOST)
fp.set_preference("network.proxy.ssl_port", int(PROXY_PORT))
fp.set_preference("network.proxy.ftp", PROXY_HOST)
fp.set_preference("network.proxy.ftp_port", int(PROXY_PORT))
fp.set_preference("network.proxy.socks", PROXY_HOST)
fp.set_preference("network.proxy.socks_port", int(PROXY_PORT))
fp.set_preference("general.useragent.override",
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_3) AppleWebKit/537.75.14 (KHTML, like Gecko) Version/7.0.3 Safari/7046A194A")
fp.update_preferences()
driver = webdriver.Firefox(firefox_profile=fp)
4th Example - it gives me this error : InvalidArgumentException: Message: null is not an array
PROXY = "123.123.123.123:13028"
webdriver.DesiredCapabilities.FIREFOX['proxy'] = {
"httpProxy": PROXY,
"ftpProxy": PROXY,
"sslProxy": PROXY,
"noProxy": None,
"proxyType": "MANUAL",
}
driver = webdriver.Firefox()
driver.get('http://www.whatsmyip.org/')
And i also used this example:
5th Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1
ProxyHost = "123.123.123.123"
ProxyPort = "13028"
def ChangeProxy(ProxyHost, ProxyPort):
"Define Firefox Profile with you ProxyHost and ProxyPort"
profile = webdriver.FirefoxProfile()
profile.set_preference("network.proxy.type", 1)
profile.set_preference("network.proxy.http", ProxyHost)
profile.set_preference("network.proxy.http_port", int(ProxyPort))
profile.update_preferences()
return webdriver.Firefox(firefox_profile=profile)
def FixProxy():
# ""Reset Firefox Profile""
profile = webdriver.FirefoxProfile()
profile.set_preference("network.proxy.type", 0)
return webdriver.Firefox(firefox_profile=profile)
driver = ChangeProxy(ProxyHost, ProxyPort)
driver.get("http://whatismyipaddress.com")
time.sleep(5)
driver = FixProxy()
driver.get("http://whatismyipaddress.com")
1
голосов
1
ответ
310
Просмотры
Разбор XML в Python дает нулевые значения
Я программирование в Python, и я пытаюсь прочитать статус моего Yamaha сети стерео. Я получаю следующий ответ XML На все хорошо до сих пор. Теперь я пытаюсь найти силы, чтобы получить последний статус. Именно там в XML, но я не могу найти значение состояния питания, когда я использую XML-парсер, такие как ElementTree. импорт запросов от xml.etree импорта ElementTree как ET URL = "http://192.168.128.199/YamahaRemoteControl/ctrl" полезной нагрузки «= \ г \ п \ г \ п \ г \ п \ г \ п GetParam \ г \ N \ г \ п \ г \ п "заголовки = { 'Content-Type': "текст / XML", 'Cache-Control': "нет кэша", 'Почтальон-Токен':" 9ad57fc1-4c78-a921-5967- bef4d2167214" } ответ = requests.request ( "POST", URL, данные полезной нагрузки =, Заголовки = заголовки) печати (response.text) RAWDATA = ET.fromstring (response.content) результат = rawdata.find ( 'Power'). Текст печати (результат) результат = rawdata.items () печать (результат) я получаю нулевое значение. Поэтому я пошагово питон интерактивный и я могу видеть FindAll и FindText атрибута, когда я использую функцию режа () на корне, но не на подэлементах. >>> корень = ET.parse ( 'yamahaPowerStatus.xml'). GetRoot () >>> печать корень >>> PC = root.getchildren () [0] .getchildren () >>> печать PC [] >> > проверить = PC.findtext ( 'Power') Traceback (самый последний вызов последнего): Файл "", строка 1, в чеке = PC.findtext ( 'Power') AttributeError: 'список' объект имеет реж без атрибута 'FindText' (PC) [ 'добавить', 'класс', 'содержит', 'delattr', ' GetItem», 'хэш', 'инициализации', 'Len', 'модуль', 'новый', 'отличны от нуля', 'уменьшить', 'reduce_ex', 'Repr', 'SetAttr', 'SetItem', 'SizeOf' , 'ул', 'subclasshook', 'weakref', '_children', 'Append', 'Attrib', 'ясный', 'копия', 'простираться', 'найти', 'FindAll', 'FindText', ' получить», 'GetChildren', 'getiterator', 'вставить', 'элементы', 'иТЭР', 'iterfind', 'itertext', 'ключи', 'makeelement', 'удалить', 'набор', 'тег' «хвост», «текст»] Так что я делаю неправильно? Ответ XML, как представляется, правильно отформатирован. Я попытался с помощью других парсеров XML, но один и тот же результат. Я также попытался преобразовать его в формат JSON первый, но тот же результат. Я рассмотрел YouTube видео, и я пытался найти что-то подобное здесь не повезло. Я думаю, что я делаю что-то принципиально неправильно.
1
голосов
1
ответ
166
Просмотры
Как оценить неравенство внутри строки в Python 2
У меня есть текстовый файл (выход другого процесса, который я не могу изменить), который содержит логические сравнения (только эти три:>, вторую операцию Элифа == "
1
голосов
0
ответ
63
Просмотры
Python неперехваченное исключение
У меня есть две программы, написанной на python2 работает на Raspberry Pi, но мой вопрос строго относится Python. Первая программа определяет температуру и выводит его значение на 16x2 LCD, в то время как второй управляется с помощью инфракрасного пульта, который используется для переключения светодиодов. Обе программы используют подобную попытку / за исключением механизма, работать в бесконечном цикле и оканчиваются на CTRL + C. Первый из них ведет себя, как и ожидалось (дает ^ CBye!): Импорт ОС время импорта Глоб импорт из RPI импорта GPIO из RPLCD.gpio импорта CharLCD Защиту read_temp_raw (): F = открытое (device_file, 'г') линий = f.readlines ( ) f.close () возвращают строки защиту read_temp_c (): строки = read_temp_raw (), тогда как линии [0] .strip () [- 3:] = 'ДА': time.sleep (0.2) линии = read_temp_raw () equals_pos = линия [1] .find ( '= т'), если equals_pos = -1: Глоб (base_dir + '28 * ') [0] = device_file device_folder + / w1_slave' в то время как Правда: lcd.cursor_pos = (0, 0) lcd.write_string (Юникода ( "Темп:" + read_temp_c () + unichr (223 ) + "C")) lcd.cursor_pos = (1, 0) lcd.write_string (юникода ( "Temp:" + read_temp_f () + unichr (223) + "F")), за исключением KeyboardInterrupt: "\ nBye" печать за исключением: печать "Error ... прерывающимся \ N", наконец: lcd.close (ясно = True) # GPIO.cleanup () в то время как другой не является: импорт LIRC #import RPi.GPIO, как GPIO импорт wiringpi # GPIO.setmode (GPIO.BCM) # GPIO.setup (23, GPIO.OUT) # GPIO.setup (24, GPIO.OUT) # GPIO.setup (25, GPIO.OUT) wiringpi.wiringPiSetupGpio () wiringpi.pinMode (23, 1 ) wiringpi.pinMode (24, 1) wiringpi.pinMode (25, 1) sockid = lirc.init ( "ir_leds") попробовать: в то время как True: diodeID = INT (lirc.nextcode () [0]), если diodeID == 1: # GPIO.output (23, не GPIO.input (23)) wiringpi.digitalWrite (23, а не wiringpi.digitalRead (23) ) Элиф diodeID == 2: # GPIO.output (24, а не GPIO.input (24)) wiringpi.digitalWrite (24, а не wiringpi.digitalRead (24)) Элиф diodeID == 3: # GPIO.output (25, а не GPIO.input (25)) wiringpi.digitalWrite (25, не wiringpi.digitalRead (25)) иначе: поднять Exception (), за исключением KeyboardInterrupt: печать "\ nBye!" за исключением: печать "Error ... прерывающимся", наконец: lirc.deinit () # GPIO.output (23, 0) # GPIO.output (24, 0) # GPIO.output (25, 0) # GPIO.cleanup () wiringpi.digitalWrite (23, 0) wiringpi.digitalWrite (24, 0) wiringpi.digitalWrite (25, 0) wiringpi.pinMode (23, 0) wiringpi.pinMode (24, 0) wiringpi.pinMode (25, 0) Нагрузочное это с CTRL + C приведет к: ^ CTraceback (самый последний вызов последнего): Файл «ir_leds. ру», строка 15, в diodeID = INT (lirc.nextcode () [0]) KeyboardInterrupt Однако, в конце концов блоки, кажется, правильно работать в обоих случаях. В чем причина такого поведения и как я могу обрабатывать исключения правильно в этом случае?
1
голосов
0
ответ
512
Просмотры
Read first line of huge Json file with Spark using Pyspark
I'm pretty new to Spark and to teach myself I have been using small json files, which work perfectly. I'm using Pyspark with Spark 2.2.1 However I don't get how to read in a single data line instead of the entire json file. I have been looking for documentation on this but it seems pretty scarce. I have to process a single large (larger than my RAM) json file (wikipedia dump: https://archive.org/details/wikidata-json-20150316) and want to do this in chuncks or line by line. I thought Spark was designed to do just that but can't find out how to do it and when I request the top 5 observations in a naive way I run out of memory. I have tried RDD .
SparkRDD= spark.read.json("largejson.json").rdd
SparkRDD.take(5)
and Dataframe
SparkDF= spark.read.json("largejson.json")
SparkDF.show(5,truncate = False)
So in short:
1) How do I read in just a fraction of a large JSON file? (Show first 5 entries)
2) How do I filter a large JSON file line by line to keep just the required results?
Also: I don't want to predefine the datascheme for this to work.
I must be overlooking something.
Thanks
Edit: With some help I have gotten a look at the first observation but it by itself is already too huge to post here so I'll just put a fraction of it here.
[
{
"id": "Q1",
"type": "item",
"aliases": {
"pl": [{
"language": "pl",
"value": "kosmos"
}, {
"language": "pl",
"value": "\\u015bwiat"
}, {
"language": "pl",
"value": "natura"
}, {
"language": "pl",
"value": "uniwersum"
}],
"en": [{
"language": "en",
"value": "cosmos"
}, {
"language": "en",
"value": "The Universe"
}, {
"language": "en",
"value": "Space"
}],
...etc
1
голосов
1
ответ
122
Просмотры
Python CSV: Добавлять в COLUMN, дублированные записи
Я пытаюсь записать в файл CSV, каждый новый вход в колонну, но каждый раз, когда файл CSV получает повторяющиеся записи. Я хотел бы создать 1, 2, 3 строки, только если они не существуют, чтобы быть первым, а затем добавить данные в колонке 1, 2 и 3. Я имеющего текущий код: импорт _csv MyData = [[ 1, 2, 3], [ 'Доброе утро', 'Добрый вечер', 'Добрый день']] Myfile = открыт ( 'csvexample3.csv', 'а') с Myfile: писатель = _csv.writer (Myfile) писатель .writerows (MyData) И результат я получаю: 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день Я только как сценарий для создания колонн 1, 2 и 3, если они не существуют, то я хотел бы добавить файл к тому, что строки. Этот сценарий будет функцией,
1
голосов
0
ответ
251
Просмотры
Error when trying to run pyrouge
I have installed the pyrouge by following the instruction given in the official site itself.
https://pypi.python.org/pypi/pyrouge
But i'm getting the below error when i try to run "python -m pyrouge.test"
Traceback (most recent call last):
File "/Library/Frameworks/Python.framework/Versions/3.6/bin/pyrouge_convert_plain_text_to_rouge_format", line 4, in
__import__('pkg_resources').run_script('pyrouge==0.1.3', 'pyrouge_convert_plain_text_to_rouge_format')
File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 743, in run_script
self.require(requires)[0].run_script(script_name, ns)
File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 1490, in run_script
raise ResolutionError("No script named %r" % script_name)
pkg_resources.ResolutionError: No script named 'pyrouge_convert_plain_text_to_rouge_format'
EEEETraceback (most recent call last):
File "/Library/Frameworks/Python.framework/Versions/3.6/bin/pyrouge_evaluate_plain_text_files", line 4, in
__import__('pkg_resources').run_script('pyrouge==0.1.3', 'pyrouge_evaluate_plain_text_files')
File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 743, in run_script
self.require(requires)[0].run_script(script_name, ns)
File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 1490, in run_script
raise ResolutionError("No script named %r" % script_name)
pkg_resources.ResolutionError: No script named 'pyrouge_evaluate_plain_text_files'
EEEEE
======================================================================
ERROR: test_config_file (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 138, in test_config_file
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_convert_summaries (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 126, in test_convert_summaries
check_output(command.split())
File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 573, in check_output
raise CalledProcessError(retcode, cmd, output=output)
CalledProcessError: Command '[u'pyrouge_convert_plain_text_to_rouge_format', u'-i', u'data/SL2003_models_plain_text', u'-o', u'/tmp/tmps6qLvp']' returned non-zero exit status 1
======================================================================
ERROR: test_evaluation (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 151, in test_evaluation
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_options (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 203, in test_options
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_paths (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 23, in test_paths
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_rouge_for_plain_text (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 173, in test_rouge_for_plain_text
pyrouge_output = check_output_clean(pyrouge_command.split())
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 17, in
check_output_clean = lambda c: check_output(c).decode("UTF-8").strip()
File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 573, in check_output
raise CalledProcessError(retcode, cmd, output=output)
CalledProcessError: Command '[u'pyrouge_evaluate_plain_text_files', u'-m', u'data/models_plain', u'-s', u'data/systems_plain', u'-sfp', u'D(\\d+).M.100.T.A', u'-mfp', u'D#ID#.M.100.T.[A-Z]', u'-id', u'1']' returned non-zero exit status 1
======================================================================
ERROR: test_text_conversion (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 91, in test_text_conversion
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_write_config (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 197, in test_write_config
check_output(command.split())
File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 566, in check_output
process = Popen(stdout=PIPE, *popenargs, **kwargs)
File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 710, in __init__
errread, errwrite)
File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 1335, in _execute_child
raise child_exception
OSError: [Errno 2] No such file or directory
======================================================================
ERROR: test_wrong_model_pattern (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 73, in test_wrong_model_pattern
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
======================================================================
ERROR: test_wrong_system_pattern (pyrouge.tests.Rouge155_test.PyrougeTest)
----------------------------------------------------------------------
Traceback (most recent call last):
File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 59, in test_wrong_system_pattern
rouge = Rouge155()
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__
self.__set_rouge_dir(rouge_dir)
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir
self.data_dir = os.path.join(self._home_dir, 'data')
File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset
verify_dir(path, dir_name)
File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir
raise Exception(msg)
Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist.
----------------------------------------------------------------------
Ran 10 tests in 0.403s
FAILED (errors=10)
I have ran the command in the sudo mode only. I didn't what do they mean by this "pyrouge_set_rouge_path /absolute/path/to/ROUGE-1.5.5/directory". Does this mean should i need to set/provide installation path of the pyrouge as environment variable? like how we set path for python and all.
I'm really stuck over here, please help me.
1
голосов
0
ответ
63
Просмотры
Using SqlAlchemy models in a long running process
Я иду от фона PHP и Doctrine ORM. В Doctrine ORM, если я длительный процесс работает как пакетная обработка, он нуждается во мне, чтобы очистить () диспетчер сущностея после обработки некоторых объектов, чтобы предотвратить «выбежал из памяти» обработок доктрины пакетных Если я собираюсь сделать что-то вроде ниже в питоне и SQLAlchemy: дБ = SQLAlchemy () # .... # настроить БД экземпляр и другие вещи # ..... Защита my_callback_func (пары): my_model = MyModel (attr1:»... 'attr2:' ... ',) db.session.add (my_model) db.session.commit () #here я прилагаю выше функций в качестве обратного вызова #filter является объектом, который отслеживает то, и это называют требования #when функции обратного вызова удовлетворены. my_filter.watch (my_callback) #so мой сценарий будет продолжать работать ввод () Приведенный выше код работает нормально сейчас, в течение нескольких дней на самом деле. Есть ли SQLAlchemy отслеживает объекты MyModel после сохранения их в базе данных? Возможно ли, что SQLAlchemy может собрать (в памяти) все объекты, которые она спасенных, и «запустить из памяти» в какой-то момент? Кстати я знаю, как запустить длительный процесс с помощью супервизора или что-то подобное. Сохраняя это работает не проблема.
1
голосов
0
ответ
95
Просмотры
Scrapy разделить детали после обработки с помощью трубопровода
Мне нужно расщепленные элементы, которые я получил после обработки для трубопровода. Проблема у меня есть, чтобы загрузить группу CSV с веб-сайта, для этого я использовал трубопровод FilesPipeline, как предполагают документацию. После загрузки CSV мне нужно обрабатывать, что и создавать новые элементы, которые будут процессом для другого трубопровода. Фрагменты моих настроек кода custom_settings = { 'ITEM_PIPELINES': { 'scrapy.pipelines.files.FilesPipeline': 1, 'myproj.pipelines.files.PreprocessCSVPipeline': 50 'myproj.pipelines.files.SaveDBPipeline': 300} , 'FILES_STORE': os.path.dirname (os.path.abspath (__ FILE__))} синтаксический анализ (разбор Защиты самоощущения, ответ): self.logger.info ( "В методе синтаксического анализа !!!") # Свойство собственность property_ownership = ответ. ) Files_addr = {} для й в файлах: #process CSV ... выход Вопроса о том, что документация для трубопровода определяет, что process_item должен либо вернуть Dict с данными, а не итератор. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо.
1
голосов
1
ответ
41
Просмотры
чтения не-форматированное значение столбца
Я пытаюсь читать все значения для столбца «Описание 4». Я могу читать его, если все значения находятся в одной строке и ни одно из значений не являются пустыми, но ниже в случае, если некоторые пустые значения и некоторые значения не ориентированы в той же строке, что и другие. Пожалуйста, предложите, как я могу просто вытащить все значения ниже «описание 4». Ниже всего курсива с колоннами между ними откуда я должен принести Описание 4 A. варранты и представляет в том, что имеет полное право собственности на перечисленные ниже и / или мобильный телефон, в котором содержится, свободными от всех залогов и esffcswes и cdwswys таким названием, и любые regqsdfon и документы (если применимо), чтобы эффективно, как на дату удаления или из (в зависимости от обстоятельств).
1
голосов
1
ответ
47
Просмотры
Кто-нибудь есть код питона для вычисления массы взвешенной Шлиттер энтропии
Я создал файл в формате ASCII (Даты файла размера (1407675 × 3) ковариационной матрица размера (2055 × 2055) от Gromacs и хочу, чтобы вычислить энтропию, используя уравнение Шлиттера, S = Kb / 2 * пер йй | 1 + ( Kb * е * е * матрица / HBAR * HBAR | Но я получаю странные значения, может кто-нибудь уже есть код, то пожалуйста поделитесь или кто-то может изменить (или проверить) ниже код очень ценится на импорт SYS, Os импорт NumPy как нп. # Импорт NumPy для точечных продуктов и т.д. импорт numpy.testing как # импорта NPT numpy.testing для сравнения чисел импорта PMX классы # импорта PMX импорта математики # Импорт математики классов (пол) из numpy.linalg импорта ой сигма = numpy.loadtxt ( 'covar_fit .dat ') HBAR = 1.054571628e-34 #Joules секунд T = 310,0 # Кельвина Кб = 1.3806504e-23 # джоулей / Кельвин Эйлера = 2,71828 = матрица np.resize (сигма, (2055,2055)) к = NP.тождество (2055) мат = ((Кб * T * Эйлер Эйлер) * матрица) / (HBAR * HBAR) т = np.array (мат) + np.array знак (к), logdet = np.linalg.slogdet ( м) (знак, logdet) Det = logdet энтропия = Kb * 0,5 * ая печать (энтропия)
1
голосов
3
ответ
64
Просмотры
Regex в строке [Python]
Таким образом, есть эта строка: ул = и '(ОПИСАНИЕ = (ВКЛЮЧИТЬ = сломана) (АДРЕС = (ПРОТОКОЛ = TCP) (HOST = 172.16.102.46) (PORT = 1521)) (CONNECT_DATA = (UR = А) (SERVICE_NAME = SPA1_HJY))) Из которых я должен извлечь значения хост, порт и SERVICE_NAME. Я использовал следующее регулярное выражение для всех трех, соответственно: re_exp1 = re.search (г ".. HOST = \ W + \ W + \ W + \ W +", str_utf) re_exp2 = re.search (г "(ПОРТ = [1-9 ] [0-9] *)», str_utf) re_exp3 = re.search (г "(SERVICE_NAME = \ ш + _ \ ш +)", str_utf) И это дает мне следующий вывод: HOST = 172.16.102.46 PORT = 1521 SERVICE_NAME = SPA1_HJY конечно, можно удалить «HOST =», «PORT =» и «=» SERVICE_NAME из полученных результатов и быть оставлены только значения; Но есть лучше регулярное выражение, которое я могу использовать здесь, которые будут давать только значение? Надеюсь, что это имеет смысл. :-)
1
голосов
1
ответ
103
Просмотры
Как получать обновленные данные в формате JSON непрерывно с помощью питона
Во время работы с JSON в Python, я написал этот небольшой скрипт для извлечения текущей цены BTC. Это прекрасно работает, когда я запускаю скрипт в терминале Ubuntu. То, что я хочу, чтобы обновить переменную current_price за каждую минуту, так что я могу использовать эту переменную для отображения на рабочем столе уведомление о текущей цене. Я искал хрон, чтобы запланировать задачу, но это не будет работать, потому что я хочу, чтобы запустить скрипт после каждой минуты, а не в определенное время. то, что является лучшей практикой для достижения этой цели? импорт URLLIB, JSON URL = "https://koinex.in/api/ticker" ответ = urllib.urlopen данные (URL) = json.loads (response.read) () current_price = данные [ "цены"] [ "BTC «] печать current_price
1
голосов
1
ответ
63
Просмотры
копирования файла на сетевом устройстве
Я использую netmiko библиотеку, чтобы отправить команду на ПКПП файл на удаленном сетевом устройстве. Моя программа терпит неудачу, когда он запрашивает пароль. Есть ли способ, этот пароль может быть определен в самой программе? У меня есть сотни сетевых устройств, чтобы скопировать файл. от netmiko импорта ConnectHandler agg01 = { "device_type": "cisco_nxos", "ф": "10.1.30.229", "имя пользователя": "администратор", "пароль": "XXXX"} net_connect = ConnectHandler (** agg01) выход = net_connect.send_config_set ( "копия УПП: // корень @ XXXX / дома / U / тест загрузочной флэш-памяти: тест управления VRF") вывод на печать
1
голосов
1
ответ
33
Просмотры
Python синхронизация из функции, если требуется много времени
Скажем, у меня есть функция четкости may_take_a_long_time (): в то время как 1: # что-то сделать, если met_condition (): преодолей timeout_dur = 600 may_take_a_long_time () do_something_else () Что я могу сделать так, что если may_take_a_long_time () занимает больше времени, чем timeout_dur, чтобы прервать любую его делать, и продолжить ж / do_something_else (), возможно, установка SIGALARM перед вызовом may_take_a_long_time ()? Как я могу это сделать? или запустить may_take_a_long_time () в потоке, который происходит асинхра, поэтому я могу иметь time.sleep (timeout_dur) в потоке вызывающего абонента?
1
голосов
0
ответ
30
Просмотры
Unknown error while parsing Json data from url
while parsing below code, I am getting unknown BaseException as ' search-results' or 'citedby-count' for some of the queries which are perfectly similar to other queries.
Thanks in advance.
params = get_connection_parameters(title)
r=requests.get(params[0],headers=params[1],timeout=60)
response = r.content
data = json.loads(response)
try:
c_data = data['search-results']['entry'][0]['citedby-count']
value = row.strip("\n")+','+str(c_data)
output.write("\n"+value)
except BaseException as b:
print(b)
json data to be parsed:
{"search-results":{
"opensearch:totalResults": "1",
"opensearch:startIndex": "0",
"opensearch:itemsPerPage": "1",
"opensearch:Query": {
"@role": "request",
"@searchTerms": "TITLE(daime, a novel image analysis program for microbial ecology and biofilm research)",
"@startPage": "0"
},
"link": [
{
"@_fa": "true",
"@ref": "self",
},
{
"@_fa": "true",
"@ref": "first",
}
],
"entry": [
{
"@_fa": "true",
"prism:url": "https://api.elsevier.com/content/abstract/scopus_id/33644868597",
"eid": "2-s2.0-33644868597",
"dc:title": "daime, a novel image analysis program for microbial ecology and biofilm research",
"citedby-count": "298"
}
]
}
}
1
голосов
0
ответ
59
Просмотры
Django model Diamond multiple inheritance
Я веб-программирования стартера. Я делаю веб-программирование с Django. Я нашел проблему с моделированием. Ниже мой код. (Я писал об этом в Python 2.7.12.) Класс ImageModel (models.Model): класс пас FaceModel (ImageModel): Защиту сохранить (я, * арг, ** kwargs): печать "FaceModel" супер (FaceModel, самость). сохранить (* арг, ** kwargs) # Есть что-то супер (FaceModel, самость) .save () класса ObjectModel (ImageModel): защиту сохранить (самостоятельно, * арг ** kwargs): печать "ObjectModel" супер (ObjectModel, само ) .save (* арг, ** kwargs) # Есть что-то супер (ObjectModel, самость) .save () класса PlaceModel (ImageModel): защиту сохранить (самостоятельно, * арг ** kwargs): печать "PlaceModel" супер (PlaceModel , Я) .save (* арг ** kwargs) # Есть что-то супер (PlaceModel, самость). сохранить () класса AllModel (FaceModel, ObjectModel, PlaceModel): пройти Но, В результате значение, которое я хочу. Но есть одна проблема. FaceModel.save () вызовите один, ObjectModel.save () называют два и PlaceModel.save () звонить в четыре раза. Это слишком медленно. Я хочу, чтобы вызвать функцию Save () для каждой модели только один раз. Что я должен делать?
1
голосов
1
ответ
198
Просмотры
EOFError использованием numpy.load ()
У меня есть команда, чтобы загрузить данные из файла NPY: utable = numpy.load ( «utable.npy») Но это приводит к EOFError: Файл «/home/divyat/anaconda2/lib/python2.7/site-packages/numpy /lib/npyio.py», строка 419, в нагрузки pickle_kwargs = pickle_kwargs) Файл "/home/divyat/anaconda2/lib/python2.7/site-packages/numpy/lib/format.py", строка 640, в read_array массив = pickle.load (∥f∥p, ** pickle_kwargs) EOFError Я не понимаю эту ошибку. Что именно происходит? Метод numpy.load () вызывает функцию pickle.load (), который вызывает ошибку. Файл utable.npy представляет собой файл, используемый для создания текстовых вложений с помощью skipthoughts. Я скачал файлы отсюда: https://github.com/ryankiros/skip-thoughts#getting-started
1
голосов
1
ответ
109
Просмотры
PyQt4 QTextEdit: Вертикальный текст в HTML-таблице
Я нашел пример в PyQt4 / примеры / демо под названием TextEdit, что создает документы из HTML-файла, и я использую его для табличных отчетов, как отчеты MS Access. Все работает отлично, но я не могу установить текст в HTML-таблиц вертикально. Я пытаюсь этот код: QTextEdit Демонстрация p.vertical {режим письма: ТБ-Rl; фильтр: flipH flipV; высота: 60px; по вертикали по горизонтали 0 В браузере работает нормально, но когда я открываю его в TextEdit, это не так. Есть еще один способ, чтобы установить текст по вертикали в TextEdit?
1
голосов
1
ответ
70
Просмотры
Невозможно увидеть большие двоичные объекты данных в CQLSH
В то время как запрашивая столбец байтов массива таблицы CASSANDRA, вместо того, чтобы отображать представление байт, CQLSH пытается декодировать значение и дает ниже сообщение об ошибке: Не удалось формат значения «\ x8eV4 \ XFE} \ xd9p5 \ xb3Q \ XF8 \ x87 \ xc1v3 \ ! xe7x \ x00 \ xd5 \ хаа>»: 'ASCII' кодек не может декодировать байт 0x8e в положении 0: порядковый не в диапазоне версии (128) Python: 2.7.14 и CQL версия: 5.0.1
1
голосов
0
ответ
291
Просмотры
участок RGB с использованием cartopy pcolormesh
Я пытаюсь построить массив RGB по карте с помощью нерегулярного широчайшего массива / долготы, которые предоставляются с набором данных. Для этого я использую pcolormesh, как описано здесь. Проблема заключается в том, что cartopy pcolormesh, кажется, не в состоянии оказать данные при пересечении Dateline (180 меридиана), или, по крайней мере, я не мог найти обходной путь. Скрипт ниже регенерирует вопрос: импорт matplotlib.pyplot, как PLT импорт cartopy.crs как КЦДЗ импорта NumPy как нп # RGBA изображения г = np.array ([[0,27359769, 0,27359769, 0,27359769, 0,27359769], [0,27359769, 0,67702749, 0,85702749, 0.27359769 ], [0.27359769, 0.85702749, 0.67702749, 0.27359769], [0.27359769, 0.67702749, 0.85702749, 0.27359769], [0.27359769, 0.85702749, 0.67702749, 0.27359769], [0.27359769, 0.27359769, 0.27359769, 0.27359769]]) г = пр.
1
голосов
1
ответ
53
Просмотры
Combine columns in different rows in dataframe python
Я пытаюсь объединить столбцы в разных строках в dataframe. импорт панды как Pd TDF = { 'PH1': [1, 2], 'фазы 2': [3, 4], 'PH3': [5,6], 'PH4': [нан, нан]} DF = П.Д. .DataFrame (данные = TDF) DF Выход: PH1 фазы 2 PH3 PH4 0 1 3 5 нан 1 2 4 6 нан я объединил PH1, PH2, PH3, PH4 с кодом ниже: для IDX, строка в df.iterrows (): DF = пеленгации [[pH1, ph2, PH3, PH4]] DF [ "ConcatedPhoneNumbers"] = df.loc [0:]. применяются (лямбда х: '' .join (х), ось = 1) я получил ДФ [» ConcatPhoneNumbers "] ConcatPhoneNumbers 1,3,5 ,, 2,4,6 ,, Теперь мне нужно объединить эти столбцы, используя панда с соответствующей функцией. Мой результат должен быть 1,3,5,2,4,6 Кроме того, необходимо, чтобы удалить эти дополнительные запятые. Я новичок Python learner.I сделал некоторые исследования и достиг до здесь. Пожалуйста, помогите мне, чтобы получить точный подход.
1
голосов
0
ответ
515
Просмотры
Python скрипт демозаики с RCCB необработанного изображения
Мне нужен сценарий Python для демозаики с RCCB необработанного изображения. Я приложил образец изображения, а также. какие-либо предложения ? Большое спасибо . Я надеюсь, что я не создавал устаревший вопрос. Я мог бы понять концепцию здесь, но не знает, как сделать демозаик в питоне, хотя: /
1
голосов
0
ответ
22
Просмотры
печать выходного файла
Написание программы кластеризации для размещения точек данных в ближайшей группе. Я хотел бы программу для печати выходного файла, чтобы посмотреть, как это. Первая половина кода помещает точки в правильном кластере. Точка 1.8 в кластере точки 0 4.5 в кластере 1 пункт 1.1 в кластере 2 пункта 2.1 в кластере 0 найденных 9.8 в кластере 4, это основная часть коды itr_times = 0, а True: itr_times + = 1 кластеры = assign_to_clusters (input_points, центроиды) печать ( "Итерационные" ул (itr_times +)) для индекса в диапазоне (total_clusters): печать (индекс, кластеры [индекс]) печать ( "") centroids_updated = update_location (кластеры, центроиды), если не centroids_updated: порвать с открытым (выходной_файл, 'W'), как output_file: для р в input_points: output_file.write (с плавающей точкой ( "точка {} в кластере {} \ п".
1
голосов
1
ответ
30
Просмотры
относительно выборки двумерного массива, и пусть массив выборки имеет три измерения формы
Есть два числовых массивов, train_wiggle и train_spike. Оба из которых имеют форму, как (1000,101). Физически они представляют соответственно 1000 точек, где каждая точка имеет 101 функции. Я хотел бы генерировать два соответствующих случайных выборок, wiggle_sample и spike_sample от train_wiggle и train_spike соответственно. Размер выборки 10. В конкретных, я хочу wiggle_sample и spike_sample имеют форму (10,101,1). Это то, что я Защита generate_train_samples (): sample_id = np.random.randint (низкий = 0, высокий = 999, размер = 10) input_seq = np.take (train_wiggle, sample_id, ось = 0) output_seq = np.take ( train_spike, sample_id, ось = 0) возвращение input_seq, output_seq # в форме: (batch_size, time_steps, feature_dim) х, у = generate_train_samples () при вызове функции выше, х и у имеют форму (10, 101), вместо того, (10,101,1), как я хочу.
1
голосов
0
ответ
33
Просмотры
Как я контролировать работу, которые работают в течение 3 дней с помощью Python? Любые предлагаемые модули, которые будут использовать здесь?
У меня есть сценарий, где мне нужно, чтобы загрузить некоторые большие файлы в удаленное место и работает в течение 3-х дней (700+ ГБ), здесь, все командная строка активность и нет UI или GUI, чтобы контролировать его. Как это сделать с помощью некоторых интересных и полезных модулей Python? Любые предлагаемые модули помогут здесь. В настоящее время я делаю это с помощью времени цикла, который не помогает много здесь. Я бег на работу внутри экрана, как только работа завершена - проверка md5sum каждого из файлов и сравнить его с источником и назначением. Я использую модули ОС, SYS, подпроцесс, pexpect, время, Глоб и т.д.
1
голосов
1
ответ
43
Просмотры
как создать крюк из питона для передачи данных в mixpanel используя Dev маркер
Я хочу, чтобы создать крюк из моего кода Python для отправки пользовательских данных mixpanel из signals.py в входе и выходе. Seen примеры использования ключа API и секретные ключи, но у меня есть только маркер DEV аутентификации. Также я хочу, чтобы извлечь данные из этого крючка позже
1
голосов
0
ответ
385
Просмотры
Docker: multistage build for python:2.7-slim
Dockerfile
FROM docker as docker
CMD ["bash"]
FROM python:2.7-slim as python
CMD ["bash"]
# base image
FROM ubuntu
COPY --from=docker /usr/local/ /usr/local/
COPY --from=python /usr/local/ /usr/local/
CMD ["ls", "/usr/local/bin"]
Then,
docker build -t test .
docker run test
Output:
2to3
docker
docker-containerd
docker-containerd-ctr
docker-containerd-shim
docker-entrypoint.sh
docker-init
docker-proxy
docker-runc
dockerd
easy_install
easy_install-2.7
idle
modprobe
pip
pip2
pip2.7
pydoc
python
python-config
python2
python2-config
python2.7
python2.7-config
smtpd.p
great, I see python and docker binaries. But if i try running it..
docker run test /usr/local/bin/python --version
/usr/local/bin/python: error while loading shared libraries: libpython2.7.so.1.0: cannot open shared object file: No such file or directory
i dont think copying /usr/local alone is sufficient perhaps?
what else do I need to do to get python working in ubuntu?
1
голосов
1
ответ
22
Просмотры
Есть ли способ уменьшить время, необходимое для pymongo.errors.AutoReconnect произойти?
Я использую 3-узловую MongoDB набор реплики и подключение к нему с помощью PyMongo v3.3.1. При тестировании обработки ошибок, как AutoReconnect и ServerSelectionTimeout и такие, я считаю, что я не могу (безопасно / надежно) контролировать, сколько времени требуется, чтобы вызвать исключение AutoReconnect. Если я создаю экземпляр MongoClient с аргументом serverSelectionTimeoutMS устанавливает, например, 2000, я вижу исключение ServerSelectionTimeout вернуться примерно через 2 секунды. Однако, когда условия впору вызвать AutoReconnect он всегда занимает не менее 20 секунд, когда-то ближе к 30 секунд! Как я могу ограничить это поведение? Я снимаюсь для относительно высокой доступности и хочу, чтобы обнаружить сеть / набор реплик аномалий и начать свою логику повторных попыток довольно быстро.
1
голосов
0
ответ
62
Просмотры
Self replacing object python
Я хотел бы создать объект, который способен заменить себя с произвольным объектом, когда доступ; как в следующем: классе stand_in_object (объект): Защита __init __ (я, obj_ref): self.obj_ref Защита __getattr __ (я, ключ): передать #somehow сделать вызов ссылки в настоящее время относится к self.obj_ref #Consider: SetAttr (ссылка, название , self.obj_ref) - как получить реф, имя? #Or возможно то, что заменяет объект, находящийся на «месте» #so, что все ссылки на ид (сам) являются «наведением» на #A нового объекта. Может быть ctypes.memmove? # ------------------------ Пример использования ---------------------- класс х (объект): Защита __init __ (сам): self.y = stand_in_object (интермедиат (5)) а = х () печать AXF #calls ax__getattr __ ( 'F'), который задает. х = INT (5) Я думал, что я мог бы попробовать либо memmove, или заменить все ссылки на метод нашел этот пост: https://benkurtovic.com/2015/01/28/python-object-replacement.html Я пытаюсь чтобы сделать ООСУБД с помощью cPickle. Я хотел бы иметь постоянные объекты, которые не были загружены, можно ссылаться на дежурном в объекте, пока они не будут доступны. Что-то вроде следующий: нагруженный = {} класса stand_in (объект): Защита __init __ (самостоятельно, идентификатор, SRC): self.id, self.src = идентификатор, SRC Защиты __getattr __ (самостоятельно, ключа): загружено [self.id] = cust_unpickle (self.src) #Some функции, чтобы заменить ссылку на standin_obj с загруженным объектом четкости persistent_load (ID): если идентификатор в загруженном: возвращение загружается [ID] еще: обратный stand_in (ID, SRC) # ------ --------------------Пример----------------------------- - база данных хранит #consider объекты а и с, и ас = с.
1
голосов
1
ответ
567
Просмотры
How to assign the python interpreter spark worker used?
Как назначить питон переводчика искровой работника используется? я попробовать несколько метод, как: 1) установить окр Варс экспорт PYSPARK_DRIVER_PYTHON = / python_path / бен / экспорт питон PYSPARK_PYTHON = / python_path / bin / питон не работает. Я уверен, что использование окр набор успеха PYSPARK_DRIVER_PYTHON PYSPARK_PYTHON: окр | Grep PYSPARK_PYTHON я хочу pyspark использование / python_path / bin / Python как интерпретатор Отправной питона, но рабочий начать использовать: питон -m Deamon я не хочу, чтобы связать по умолчанию питона / python_path / bin / питона в том, что это может влияет на другой УБС, BCZ питон по умолчанию и / python_path / bin / питон не совпадает с версией, и как при использовании продукции. Также установлено spark-env.sh не работает: spark.pyspark.driver.python = / python_path / bin / питон spark.pyspark.python = / python_path / bin / питон, когда водитель запуска некоторые предупредительные журналы как: конф / искрового окр. ш: строка 63: искры.
1
голосов
0
ответ
74
Просмотры
Задержка при использовании Google Calendar API с Python 3.6.2
За примером сценария на странице здесь я заметил, что в Python 2.7.14 пример работает быстро. Когда я изменил питон 3.6.4 (для обеспечения совместимости со сценарием я делаю) есть около 21 второго спада с рассматриваемой линией: обслуживание = discovery.build ( «календаря», «» v3, HTTP = HTTP) Однако, если отключить ipv6 на моем сетевом интерфейсе, он возвращается к обработке более быстро. Может кто-нибудь объяснить этот вопрос, и что я могу сделать, чтобы работать более эффективно, не имея мешать функциональности ipv6?
1
голосов
0
ответ
1.4k
Просмотры
Как извлечь текст из небольшого изображения с помощью Python OpenCV
Я новичок в OpenCV питона, вы можете мне помочь, чтобы извлечь текст из маленького изображения, я, возможно, пытался онлайн tutorial.But я не получаю точный результат. Мое изображение. Мой код импорта SYS импорта CV2 в качестве резюме импорта NumPy как нп импорт pytesseract из pytesseract импорта image_to_string IMG = Image.open ( 'SampleImage.PNG') IMG = im.filter (ImageFilter.SHARPEN ()) энхансер = ImageEnhance.Contrast (IMG) img.save ( "Cleaned1.PNG", качество = 100) img.show () pytesseract.pytesseract.tesseract_cmd = 'F: \\ тессеракт-OCR \\ тессеракт' печати ( "OCR Выход:" + pytesseract.image_to_string (IMG ))
1
голосов
1
ответ
37
Просмотры
как отделить обслуживаемое статус от 400 статуса в response.text
Я получаю две противоречивые сообщения об ошибках от моего запроса PUT. Я использую модуль запросов Python и client.The response.text выглядит следующим образом: {u'status «: 400, u'errors»: { 'u'error: u'We определили 1 ошибка в запросе: (1) Мы не смогли загрузить URL '}, u'reference': u'4C7EC36B: CE5D_0A40E1F1: 01BB_5A822CF3_EFE35: 18B1} {u'status ': u'accepted ' u'mediaId': u'f3327905-1873- 4e0d-b07c- 4e7f88741c3b», u'_links ': {u'self': {u'href ': и' / v2- бета / медиа / f3327905-1873-4e0d-B07C-4e7f88741c3b '}}, u'metadata' : {}} проблема заключается в том, что мой код должен использовать MediaId и если первые 400 статус не были там, было бы читать, но так как я не могу избавиться от этой ошибки, Мне нужно, чтобы пропустить мимо него и прочитать ответ с «статусом»: «принято» и MediaId. Я попытался итерация через него с этим: для статуса в ответ: если 'статус' есть 'принят': FILE_URL = fileURL external_id = ExternalId media_id = ответ [ 'MediaId'] = статус ответ [ 'статус'] results_writer.writerow ([FILE_URL , external_id, media_id, статус]) Элиф «статус»> 200: печать «блат», и это идет только на 400 статус, не выполнив первый «если» statement.How я мог изменить его прочитать «принято» ответ состояния ?
1
голосов
0
ответ
35
Просмотры
Как зарегистрировать функцию обратного вызова из C в Python с использованием вложения питона
Я хочу, чтобы зарегистрировать свою функцию обратного вызова (написанный на C) для питона кода из C / C ++. Как я могу это сделать? не могли бы вы мне помочь? pythoncode.py Защиту receive_messages (Arg, callbackfunc): event.eventfunction (обратный вызов = callbackfunc) sample.c недействительный my_callback (символ * тзд) {Е ( "внутри my_callback:% s \ п", MSG); } Register_callback_fun (my_callback) {// импорт модули фрагменты кода ?? }