Вопросы с тегами [python-2.7]

1

голосов
3

ответ
1.4k

Просмотры

PyTest: тест, функция был вызван в заявлении, если

У меня есть функция, которая рассматривает три различных случая, и для каждого случая вызывает другую функцию, как в примере ниже четкости my_fun (вход): если вход == 1: fun1 (), если вход == 2: fun2 (), если входное == 3: fun3 () Я хотел бы написать тест для функции my_fun с помощью py.test, но я не знаю, как я могу проверить, если надлежащее функция была вызвана для данного входа?
Ziva
1

голосов
3

ответ
48

Просмотры

Макс ключ из другого словаря значений функции в Python

У меня есть словарь статистика = { 'OK': 0, 'ПРОПУСТИТЬ': 1, 'ИСКЛЮЧЕНИЕ': 2, 'WARN': 3, 'ERROR': 4 'FATAL': 5} Я получаю значения из другой программы что дает словарь, как этот my_values ​​= { «Web»: OK «Хост»: WARN, «System»: НЕУСТРАНИМОГО} Теперь я хочу, чтобы сравнить значения из my_values ​​с ключами статистики и получить высокий результат. Например: если my_values ​​= { 'Web': OK 'Хост': WARN, 'Система': FATAL} фикцию должен возвращать FATAL если my_values ​​= { 'Web': OK 'Хост': WARN, 'Система': ERROR } фикцию должен возвращать ERROR, если my_values ​​= { «Web»: OK «Хост»: WARN, «Система»: WARN} фикцию должен вернуться WARN до сих пор я до здесь, это дает только максимальные значения в поддавки Dict. оператор импорт Защита high_value (my_value): Статистика = {»
user3330284
1

голосов
1

ответ
89

Просмотры

Python 2/3 Asyncio в 2019 году

Я должен держать мое приложение совместимо с Python 2 и 3 одновременно. У меня есть некоторый код, как в следующем, что я хочу, чтобы иметь возможность асинхронно вызывать функцию, а затем ждать, пока все мои фьючерсы будут решены. Код: запросы на импорте # Это будет возвращать будущую четкость get_xhr (URL): возвращение requests.get ( 'https:. // WWW {} .com'.format (URL)) # Это возвращает массив фьючерсы DEF get_search_engines ( ): URLS = [ 'Google', 'Yahoo', 'Бинг'] возвращение [get_xhr (URL) для URL в адресах] # Здесь я хочу подождать, пока все фьючерсам быть решены get_search_engines () печать ( "Все запросы сделано ') Asyncio асинхронной / Await кажется совместима только с Python 3. Что является лучшим способом, чтобы иметь возможность запускать функции асинхронной то будет совместим как для питона 2/3?
ClickThisNick
1

голосов
1

ответ
43

Просмотры

Подсчет вхождений элементов одного массива в другой массив

Я хочу найти частоту элементов данного одномерного массива Numpy (arr1) в другой одномерный массив Numpy (arr2). Arr1 массив содержит элементы без каких-либо повторений. Кроме того, все элементы в arr1 являются частью множества уникальных элементов arr2 Рассмотрим это в качестве примера, arr1 = np.array ([1,2,6]) arr2 = np.array ([2, 3, 6, 1 , 2, 1, 2, 0, 2, 0]) в настоящее время я использую следующие: частота = np.zeros (LEN (arr1)) для г в диапазоне (LEN (arr1)): знак = np.where (arr2 == arr1 [я]) частота [я] = Len (знак [0]) печать частота >> [2, 4, 1] Указанный метод дает мне правильный ответ. Но я хочу знать, если есть лучший / более эффективный метод, чем тот, что я ниже.
Siddharth Satpathy
1

голосов
1

ответ
61

Просмотры

питон: подпроцесс дает мне разные результаты при использовании Sudo

Я использую Python, чтобы сделать несколько тестов, и я получаю очень странные проблемы, как показано ниже: Во-первых у меня есть простой Баш скрипт с именем 1.sh: #! / Bin / ш эхо «НИЧЕГО» Тогда я сделать такой питон скрипт с именем тест .py в том же каталоге, как показано ниже: #! / USR / бен / питон импорт подпроцесса импорта ОС os.environ [ 'PS4'] = "ааа" Рез = subprocess.Popen ([ 'баш', '-x', ' 1.sh «], STDERR = subprocess.PIPE) печать res.stderr.readlines () к моему удивлению, когда я исполняю ./test.py, я получаю результат: НИЧЕГО [» ааа эхо НИЧЕГО \ п '], и когда Я исполняю SUDO ./test.py, я получаю: НИЧЕГО [ «+ эхо НИЧЕГО \ п»] Что мне нужно ааа, тогда она становится + теперь только из-за Судо. Зачем? Версия моего питона: 2.7.12 Система: Ubuntu 16.04
Yves
1

голосов
1

ответ
559

Просмотры

python proxy in selenium firefox headless not working

I am using Ubuntu Server 17.04. I am trying to set my proxy into selenium. But it's not working. I am using proxy from https://stormproxies.com/. Basically only the ip i allowed it will be allowed to have proxy and then i have to use the ip that they give me to access it. So basically it's not anything like this "ip:[email protected]:pass". Let's say this is the proxy ip i m using Example: https://123.123.123.123:13028 The proxy works fine...cause I used it in scrapy. But not working in in selenium..I have tried all the examples that I found and it gives me all kinds of errors. I'm thinking is because the examples are out-dated...maybe. My selenium and everything it's up to date. I have geckodriver set to path...and everything. Selenium works fine if I don't add proxy. Those are the main imports I am using for all. from selenium import webdriver from selenium.webdriver.common.proxy import * from pyvirtualdisplay import Display Those are all the scripts I have tried. 1st Example it doesn't give me any error but it doesn't connect to the proxy. when I try to get the ip in "https://whatismyipaddress.com" I get my true ip, not a proxy display = Display(visible=0, size=(1920, 1080)).start() myProxy = "https://123.123.123.123:13028" proxy = Proxy({ 'proxyType': ProxyType.MANUAL, 'httpProxy': myProxy, 'ftpProxy': myProxy, 'sslProxy': myProxy, 'noProxy': None }) browser = webdriver.Firefox() browser.get("https://whatismyipaddress.com/") 2nd Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1 proxies = "123.123.123.123:13028" prox = Proxy() prox.proxy_type = ProxyType.MANUAL prox.http_proxy = proxies prox.socks_proxy = proxies prox.ssl_proxy = proxies capabilities = webdriver.DesiredCapabilities.FIREFOX prox.add_to_capabilities(capabilities) driver = webdriver.Firefox(capabilities=capabilities) 3rd Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1 PROXY_PORT = '13028' PROXY_HOST = '123.123.123.123' fp = webdriver.FirefoxProfile() print PROXY_PORT print PROXY_HOST fp.set_preference("network.proxy.type", 1) fp.set_preference("network.proxy.http", PROXY_HOST) fp.set_preference("network.proxy.http_port", int(PROXY_PORT)) fp.set_preference("network.proxy.https", PROXY_HOST) fp.set_preference("network.proxy.https_port", int(PROXY_PORT)) fp.set_preference("network.proxy.ssl", PROXY_HOST) fp.set_preference("network.proxy.ssl_port", int(PROXY_PORT)) fp.set_preference("network.proxy.ftp", PROXY_HOST) fp.set_preference("network.proxy.ftp_port", int(PROXY_PORT)) fp.set_preference("network.proxy.socks", PROXY_HOST) fp.set_preference("network.proxy.socks_port", int(PROXY_PORT)) fp.set_preference("general.useragent.override", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_3) AppleWebKit/537.75.14 (KHTML, like Gecko) Version/7.0.3 Safari/7046A194A") fp.update_preferences() driver = webdriver.Firefox(firefox_profile=fp) 4th Example - it gives me this error : InvalidArgumentException: Message: null is not an array PROXY = "123.123.123.123:13028" webdriver.DesiredCapabilities.FIREFOX['proxy'] = { "httpProxy": PROXY, "ftpProxy": PROXY, "sslProxy": PROXY, "noProxy": None, "proxyType": "MANUAL", } driver = webdriver.Firefox() driver.get('http://www.whatsmyip.org/') And i also used this example: 5th Example - it gives me this error: WebDriverException: Message: Process unexpectedly closed with status: 1 ProxyHost = "123.123.123.123" ProxyPort = "13028" def ChangeProxy(ProxyHost, ProxyPort): "Define Firefox Profile with you ProxyHost and ProxyPort" profile = webdriver.FirefoxProfile() profile.set_preference("network.proxy.type", 1) profile.set_preference("network.proxy.http", ProxyHost) profile.set_preference("network.proxy.http_port", int(ProxyPort)) profile.update_preferences() return webdriver.Firefox(firefox_profile=profile) def FixProxy(): # ""Reset Firefox Profile"" profile = webdriver.FirefoxProfile() profile.set_preference("network.proxy.type", 0) return webdriver.Firefox(firefox_profile=profile) driver = ChangeProxy(ProxyHost, ProxyPort) driver.get("http://whatismyipaddress.com") time.sleep(5) driver = FixProxy() driver.get("http://whatismyipaddress.com")
Omega
1

голосов
1

ответ
310

Просмотры

Разбор XML в Python дает нулевые значения

Я программирование в Python, и я пытаюсь прочитать статус моего Yamaha сети стерео. Я получаю следующий ответ XML На все хорошо до сих пор. Теперь я пытаюсь найти силы, чтобы получить последний статус. Именно там в XML, но я не могу найти значение состояния питания, когда я использую XML-парсер, такие как ElementTree. импорт запросов от xml.etree импорта ElementTree как ET URL = "http://192.168.128.199/YamahaRemoteControl/ctrl" полезной нагрузки «= \ г \ п \ г \ п \ г \ п \ г \ п GetParam \ г \ N \ г \ п \ г \ п "заголовки = { 'Content-Type': "текст / XML", 'Cache-Control': "нет кэша", 'Почтальон-Токен':" 9ad57fc1-4c78-a921-5967- bef4d2167214" } ответ = requests.request ( "POST", URL, данные полезной нагрузки =, Заголовки = заголовки) печати (response.text) RAWDATA = ET.fromstring (response.content) результат = rawdata.find ( 'Power'). Текст печати (результат) результат = rawdata.items () печать (результат) я получаю нулевое значение. Поэтому я пошагово питон интерактивный и я могу видеть FindAll и FindText атрибута, когда я использую функцию режа () на корне, но не на подэлементах. >>> корень = ET.parse ( 'yamahaPowerStatus.xml'). GetRoot () >>> печать корень >>> PC = root.getchildren () [0] .getchildren () >>> печать PC [] >> > проверить = PC.findtext ( 'Power') Traceback (самый последний вызов последнего): Файл "", строка 1, в чеке = PC.findtext ( 'Power') AttributeError: 'список' объект имеет реж без атрибута 'FindText' (PC) [ 'добавить', 'класс', 'содержит', 'delattr', ' GetItem», 'хэш', 'инициализации', 'Len', 'модуль', 'новый', 'отличны от нуля', 'уменьшить', 'reduce_ex', 'Repr', 'SetAttr', 'SetItem', 'SizeOf' , 'ул', 'subclasshook', 'weakref', '_children', 'Append', 'Attrib', 'ясный', 'копия', 'простираться', 'найти', 'FindAll', 'FindText', ' получить», 'GetChildren', 'getiterator', 'вставить', 'элементы', 'иТЭР', 'iterfind', 'itertext', 'ключи', 'makeelement', 'удалить', 'набор', 'тег' «хвост», «текст»] Так что я делаю неправильно? Ответ XML, как представляется, правильно отформатирован. Я попытался с помощью других парсеров XML, но один и тот же результат. Я также попытался преобразовать его в формат JSON первый, но тот же результат. Я рассмотрел YouTube видео, и я пытался найти что-то подобное здесь не повезло. Я думаю, что я делаю что-то принципиально неправильно.
Tony De La Rosa
1

голосов
1

ответ
166

Просмотры

Как оценить неравенство внутри строки в Python 2

У меня есть текстовый файл (выход другого процесса, который я не могу изменить), который содержит логические сравнения (только эти три:>, вторую операцию Элифа == "
FatihAkici
1

голосов
0

ответ
63

Просмотры

Python неперехваченное исключение

У меня есть две программы, написанной на python2 работает на Raspberry Pi, но мой вопрос строго относится Python. Первая программа определяет температуру и выводит его значение на 16x2 LCD, в то время как второй управляется с помощью инфракрасного пульта, который используется для переключения светодиодов. Обе программы используют подобную попытку / за исключением механизма, работать в бесконечном цикле и оканчиваются на CTRL + C. Первый из них ведет себя, как и ожидалось (дает ^ CBye!): Импорт ОС время импорта Глоб импорт из RPI импорта GPIO из RPLCD.gpio импорта CharLCD Защиту read_temp_raw (): F = открытое (device_file, 'г') линий = f.readlines ( ) f.close () возвращают строки защиту read_temp_c (): строки = read_temp_raw (), тогда как линии [0] .strip () [- 3:] = 'ДА': time.sleep (0.2) линии = read_temp_raw () equals_pos = линия [1] .find ( '= т'), если equals_pos = -1: Глоб (base_dir + '28 * ') [0] = device_file device_folder + / w1_slave' в то время как Правда: lcd.cursor_pos = (0, 0) lcd.write_string (Юникода ( "Темп:" + read_temp_c () + unichr (223 ) + "C")) lcd.cursor_pos = (1, 0) lcd.write_string (юникода ( "Temp:" + read_temp_f () + unichr (223) + "F")), за исключением KeyboardInterrupt: "\ nBye" печать за исключением: печать "Error ... прерывающимся \ N", наконец: lcd.close (ясно = True) # GPIO.cleanup () в то время как другой не является: импорт LIRC #import RPi.GPIO, как GPIO импорт wiringpi # GPIO.setmode (GPIO.BCM) # GPIO.setup (23, GPIO.OUT) # GPIO.setup (24, GPIO.OUT) # GPIO.setup (25, GPIO.OUT) wiringpi.wiringPiSetupGpio () wiringpi.pinMode (23, 1 ) wiringpi.pinMode (24, 1) wiringpi.pinMode (25, 1) sockid = lirc.init ( "ir_leds") попробовать: в то время как True: diodeID = INT (lirc.nextcode () [0]), если diodeID == 1: # GPIO.output (23, не GPIO.input (23)) wiringpi.digitalWrite (23, а не wiringpi.digitalRead (23) ) Элиф diodeID == 2: # GPIO.output (24, а не GPIO.input (24)) wiringpi.digitalWrite (24, а не wiringpi.digitalRead (24)) Элиф diodeID == 3: # GPIO.output (25, а не GPIO.input (25)) wiringpi.digitalWrite (25, не wiringpi.digitalRead (25)) иначе: поднять Exception (), за исключением KeyboardInterrupt: печать "\ nBye!" за исключением: печать "Error ... прерывающимся", наконец: lirc.deinit () # GPIO.output (23, 0) # GPIO.output (24, 0) # GPIO.output (25, 0) # GPIO.cleanup () wiringpi.digitalWrite (23, 0) wiringpi.digitalWrite (24, 0) wiringpi.digitalWrite (25, 0) wiringpi.pinMode (23, 0) wiringpi.pinMode (24, 0) wiringpi.pinMode (25, 0) Нагрузочное это с CTRL + C приведет к: ^ CTraceback (самый последний вызов последнего): Файл «ir_leds. ру», строка 15, в diodeID = INT (lirc.nextcode () [0]) KeyboardInterrupt Однако, в конце концов блоки, кажется, правильно работать в обоих случаях. В чем причина такого поведения и как я могу обрабатывать исключения правильно в этом случае?
dominikbrandon
1

голосов
0

ответ
512

Просмотры

Read first line of huge Json file with Spark using Pyspark

I'm pretty new to Spark and to teach myself I have been using small json files, which work perfectly. I'm using Pyspark with Spark 2.2.1 However I don't get how to read in a single data line instead of the entire json file. I have been looking for documentation on this but it seems pretty scarce. I have to process a single large (larger than my RAM) json file (wikipedia dump: https://archive.org/details/wikidata-json-20150316) and want to do this in chuncks or line by line. I thought Spark was designed to do just that but can't find out how to do it and when I request the top 5 observations in a naive way I run out of memory. I have tried RDD . SparkRDD= spark.read.json("largejson.json").rdd SparkRDD.take(5) and Dataframe SparkDF= spark.read.json("largejson.json") SparkDF.show(5,truncate = False) So in short: 1) How do I read in just a fraction of a large JSON file? (Show first 5 entries) 2) How do I filter a large JSON file line by line to keep just the required results? Also: I don't want to predefine the datascheme for this to work. I must be overlooking something. Thanks Edit: With some help I have gotten a look at the first observation but it by itself is already too huge to post here so I'll just put a fraction of it here. [ { "id": "Q1", "type": "item", "aliases": { "pl": [{ "language": "pl", "value": "kosmos" }, { "language": "pl", "value": "\\u015bwiat" }, { "language": "pl", "value": "natura" }, { "language": "pl", "value": "uniwersum" }], "en": [{ "language": "en", "value": "cosmos" }, { "language": "en", "value": "The Universe" }, { "language": "en", "value": "Space" }], ...etc
Sleenee
1

голосов
1

ответ
122

Просмотры

Python CSV: Добавлять в COLUMN, дублированные записи

Я пытаюсь записать в файл CSV, каждый новый вход в колонну, но каждый раз, когда файл CSV получает повторяющиеся записи. Я хотел бы создать 1, 2, 3 строки, только если они не существуют, чтобы быть первым, а затем добавить данные в колонке 1, 2 и 3. Я имеющего текущий код: импорт _csv MyData = [[ 1, 2, 3], [ 'Доброе утро', 'Добрый вечер', 'Добрый день']] Myfile = открыт ( 'csvexample3.csv', 'а') с Myfile: писатель = _csv.writer (Myfile) писатель .writerows (MyData) И результат я получаю: 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день Я только как сценарий для создания колонн 1, 2 и 3, если они не существуют, то я хотел бы добавить файл к тому, что строки. Этот сценарий будет функцией,
Dav Marika
1

голосов
0

ответ
251

Просмотры

Error when trying to run pyrouge

I have installed the pyrouge by following the instruction given in the official site itself. https://pypi.python.org/pypi/pyrouge But i'm getting the below error when i try to run "python -m pyrouge.test" Traceback (most recent call last): File "/Library/Frameworks/Python.framework/Versions/3.6/bin/pyrouge_convert_plain_text_to_rouge_format", line 4, in __import__('pkg_resources').run_script('pyrouge==0.1.3', 'pyrouge_convert_plain_text_to_rouge_format') File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 743, in run_script self.require(requires)[0].run_script(script_name, ns) File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 1490, in run_script raise ResolutionError("No script named %r" % script_name) pkg_resources.ResolutionError: No script named 'pyrouge_convert_plain_text_to_rouge_format' EEEETraceback (most recent call last): File "/Library/Frameworks/Python.framework/Versions/3.6/bin/pyrouge_evaluate_plain_text_files", line 4, in __import__('pkg_resources').run_script('pyrouge==0.1.3', 'pyrouge_evaluate_plain_text_files') File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 743, in run_script self.require(requires)[0].run_script(script_name, ns) File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pkg_resources/__init__.py", line 1490, in run_script raise ResolutionError("No script named %r" % script_name) pkg_resources.ResolutionError: No script named 'pyrouge_evaluate_plain_text_files' EEEEE ====================================================================== ERROR: test_config_file (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 138, in test_config_file rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_convert_summaries (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 126, in test_convert_summaries check_output(command.split()) File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 573, in check_output raise CalledProcessError(retcode, cmd, output=output) CalledProcessError: Command '[u'pyrouge_convert_plain_text_to_rouge_format', u'-i', u'data/SL2003_models_plain_text', u'-o', u'/tmp/tmps6qLvp']' returned non-zero exit status 1 ====================================================================== ERROR: test_evaluation (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 151, in test_evaluation rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_options (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 203, in test_options rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_paths (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 23, in test_paths rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_rouge_for_plain_text (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 173, in test_rouge_for_plain_text pyrouge_output = check_output_clean(pyrouge_command.split()) File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 17, in check_output_clean = lambda c: check_output(c).decode("UTF-8").strip() File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 573, in check_output raise CalledProcessError(retcode, cmd, output=output) CalledProcessError: Command '[u'pyrouge_evaluate_plain_text_files', u'-m', u'data/models_plain', u'-s', u'data/systems_plain', u'-sfp', u'D(\\d+).M.100.T.A', u'-mfp', u'D#ID#.M.100.T.[A-Z]', u'-id', u'1']' returned non-zero exit status 1 ====================================================================== ERROR: test_text_conversion (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 91, in test_text_conversion rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_write_config (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 197, in test_write_config check_output(command.split()) File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 566, in check_output process = Popen(stdout=PIPE, *popenargs, **kwargs) File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 710, in __init__ errread, errwrite) File "/System/Library/Frameworks/Python.framework/Versions/2.7/lib/python2.7/subprocess.py", line 1335, in _execute_child raise child_exception OSError: [Errno 2] No such file or directory ====================================================================== ERROR: test_wrong_model_pattern (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 73, in test_wrong_model_pattern rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ====================================================================== ERROR: test_wrong_system_pattern (pyrouge.tests.Rouge155_test.PyrougeTest) ---------------------------------------------------------------------- Traceback (most recent call last): File "/Library/Python/2.7/site-packages/pyrouge/tests/Rouge155_test.py", line 59, in test_wrong_system_pattern rouge = Rouge155() File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 88, in __init__ self.__set_rouge_dir(rouge_dir) File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 407, in __set_rouge_dir self.data_dir = os.path.join(self._home_dir, 'data') File "/Library/Python/2.7/site-packages/pyrouge/Rouge155.py", line 543, in fset verify_dir(path, dir_name) File "/Library/Python/2.7/site-packages/pyrouge/utils/file_utils.py", line 87, in verify_dir raise Exception(msg) Exception: Cannot set data directory because the path /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages/pyrouge/data does not exist. ---------------------------------------------------------------------- Ran 10 tests in 0.403s FAILED (errors=10) I have ran the command in the sudo mode only. I didn't what do they mean by this "pyrouge_set_rouge_path /absolute/path/to/ROUGE-1.5.5/directory". Does this mean should i need to set/provide installation path of the pyrouge as environment variable? like how we set path for python and all. I'm really stuck over here, please help me.
coders
1

голосов
0

ответ
63

Просмотры

Using SqlAlchemy models in a long running process

Я иду от фона PHP и Doctrine ORM. В Doctrine ORM, если я длительный процесс работает как пакетная обработка, он нуждается во мне, чтобы очистить () диспетчер сущностея после обработки некоторых объектов, чтобы предотвратить «выбежал из памяти» обработок доктрины пакетных Если я собираюсь сделать что-то вроде ниже в питоне и SQLAlchemy: дБ = SQLAlchemy () # .... # настроить БД экземпляр и другие вещи # ..... Защита my_callback_func (пары): my_model = MyModel (attr1:»... 'attr2:' ... ',) db.session.add (my_model) db.session.commit () #here я прилагаю выше функций в качестве обратного вызова #filter является объектом, который отслеживает то, и это называют требования #when функции обратного вызова удовлетворены. my_filter.watch (my_callback) #so мой сценарий будет продолжать работать ввод () Приведенный выше код работает нормально сейчас, в течение нескольких дней на самом деле. Есть ли SQLAlchemy отслеживает объекты MyModel после сохранения их в базе данных? Возможно ли, что SQLAlchemy может собрать (в памяти) все объекты, которые она спасенных, и «запустить из памяти» в какой-то момент? Кстати я знаю, как запустить длительный процесс с помощью супервизора или что-то подобное. Сохраняя это работает не проблема.
sanandrl
1

голосов
0

ответ
95

Просмотры

Scrapy разделить детали после обработки с помощью трубопровода

Мне нужно расщепленные элементы, которые я получил после обработки для трубопровода. Проблема у меня есть, чтобы загрузить группу CSV с веб-сайта, для этого я использовал трубопровод FilesPipeline, как предполагают документацию. После загрузки CSV мне нужно обрабатывать, что и создавать новые элементы, которые будут процессом для другого трубопровода. Фрагменты моих настроек кода custom_settings = { 'ITEM_PIPELINES': { 'scrapy.pipelines.files.FilesPipeline': 1, 'myproj.pipelines.files.PreprocessCSVPipeline': 50 'myproj.pipelines.files.SaveDBPipeline': 300} , 'FILES_STORE': os.path.dirname (os.path.abspath (__ FILE__))} синтаксический анализ (разбор Защиты самоощущения, ответ): self.logger.info ( "В методе синтаксического анализа !!!") # Свойство собственность property_ownership = ответ. ) Files_addr = {} для й в файлах: #process CSV ... выход Вопроса о том, что документация для трубопровода определяет, что process_item должен либо вернуть Dict с данными, а не итератор. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо.
Cyberguille
1

голосов
1

ответ
41

Просмотры

чтения не-форматированное значение столбца

Я пытаюсь читать все значения для столбца «Описание 4». Я могу читать его, если все значения находятся в одной строке и ни одно из значений не являются пустыми, но ниже в случае, если некоторые пустые значения и некоторые значения не ориентированы в той же строке, что и другие. Пожалуйста, предложите, как я могу просто вытащить все значения ниже «описание 4». Ниже всего курсива с колоннами между ними откуда я должен принести Описание 4 A. варранты и представляет в том, что имеет полное право собственности на перечисленные ниже и / или мобильный телефон, в котором содержится, свободными от всех залогов и esffcswes и cdwswys таким названием, и любые regqsdfon и документы (если применимо), чтобы эффективно, как на дату удаления или из (в зависимости от обстоятельств).
ankitpandey
1

голосов
1

ответ
47

Просмотры

Кто-нибудь есть код питона для вычисления массы взвешенной Шлиттер энтропии

Я создал файл в формате ASCII (Даты файла размера (1407675 × 3) ковариационной матрица размера (2055 × 2055) от Gromacs и хочу, чтобы вычислить энтропию, используя уравнение Шлиттера, S = Kb / 2 * пер йй | 1 + ( Kb * е * е * матрица / HBAR * HBAR | Но я получаю странные значения, может кто-нибудь уже есть код, то пожалуйста поделитесь или кто-то может изменить (или проверить) ниже код очень ценится на импорт SYS, Os импорт NumPy как нп. # Импорт NumPy для точечных продуктов и т.д. импорт numpy.testing как # импорта NPT numpy.testing для сравнения чисел импорта PMX классы # импорта PMX импорта математики # Импорт математики классов (пол) из numpy.linalg импорта ой сигма = numpy.loadtxt ( 'covar_fit .dat ') HBAR = 1.054571628e-34 #Joules секунд T = 310,0 # Кельвина Кб = 1.3806504e-23 # джоулей / Кельвин Эйлера = 2,71828 = матрица np.resize (сигма, (2055,2055)) к = NP.тождество (2055) мат = ((Кб * T * Эйлер Эйлер) * матрица) / (HBAR * HBAR) т = np.array (мат) + np.array знак (к), logdet = np.linalg.slogdet ( м) (знак, logdet) Det = logdet энтропия = Kb * 0,5 * ая печать (энтропия)
Sree
1

голосов
3

ответ
64

Просмотры

Regex в строке [Python]

Таким образом, есть эта строка: ул = и '(ОПИСАНИЕ = (ВКЛЮЧИТЬ = сломана) (АДРЕС = (ПРОТОКОЛ = TCP) (HOST = 172.16.102.46) (PORT = 1521)) (CONNECT_DATA = (UR = А) (SERVICE_NAME = SPA1_HJY))) Из которых я должен извлечь значения хост, порт и SERVICE_NAME. Я использовал следующее регулярное выражение для всех трех, соответственно: re_exp1 = re.search (г ".. HOST = \ W + \ W + \ W + \ W +", str_utf) re_exp2 = re.search (г "(ПОРТ = [1-9 ] [0-9] *)», str_utf) re_exp3 = re.search (г "(SERVICE_NAME = \ ш + _ \ ш +)", str_utf) И это дает мне следующий вывод: HOST = 172.16.102.46 PORT = 1521 SERVICE_NAME = SPA1_HJY конечно, можно удалить «HOST =», «PORT =» и «=» SERVICE_NAME из полученных результатов и быть оставлены только значения; Но есть лучше регулярное выражение, которое я могу использовать здесь, которые будут давать только значение? Надеюсь, что это имеет смысл. :-)
Vishal K Nair
1

голосов
1

ответ
103

Просмотры

Как получать обновленные данные в формате JSON непрерывно с помощью питона

Во время работы с JSON в Python, я написал этот небольшой скрипт для извлечения текущей цены BTC. Это прекрасно работает, когда я запускаю скрипт в терминале Ubuntu. То, что я хочу, чтобы обновить переменную current_price за каждую минуту, так что я могу использовать эту переменную для отображения на рабочем столе уведомление о текущей цене. Я искал хрон, чтобы запланировать задачу, но это не будет работать, потому что я хочу, чтобы запустить скрипт после каждой минуты, а не в определенное время. то, что является лучшей практикой для достижения этой цели? импорт URLLIB, JSON URL = "https://koinex.in/api/ticker" ответ = urllib.urlopen данные (URL) = json.loads (response.read) () current_price = данные [ "цены"] [ "BTC «] печать current_price
Srideep Nayak
1

голосов
1

ответ
63

Просмотры

копирования файла на сетевом устройстве

Я использую netmiko библиотеку, чтобы отправить команду на ПКПП файл на удаленном сетевом устройстве. Моя программа терпит неудачу, когда он запрашивает пароль. Есть ли способ, этот пароль может быть определен в самой программе? У меня есть сотни сетевых устройств, чтобы скопировать файл. от netmiko импорта ConnectHandler agg01 = { "device_type": "cisco_nxos", "ф": "10.1.30.229", "имя пользователя": "администратор", "пароль": "XXXX"} net_connect = ConnectHandler (** agg01) выход = net_connect.send_config_set ( "копия УПП: // корень @ XXXX / дома / U / тест загрузочной флэш-памяти: тест управления VRF") вывод на печать
user8838477
1

голосов
1

ответ
33

Просмотры

Python синхронизация из функции, если требуется много времени

Скажем, у меня есть функция четкости may_take_a_long_time (): в то время как 1: # что-то сделать, если met_condition (): преодолей timeout_dur = 600 may_take_a_long_time () do_something_else () Что я могу сделать так, что если may_take_a_long_time () занимает больше времени, чем timeout_dur, чтобы прервать любую его делать, и продолжить ж / do_something_else (), возможно, установка SIGALARM перед вызовом may_take_a_long_time ()? Как я могу это сделать? или запустить may_take_a_long_time () в потоке, который происходит асинхра, поэтому я могу иметь time.sleep (timeout_dur) в потоке вызывающего абонента?
ealeon
1

голосов
0

ответ
30

Просмотры

Unknown error while parsing Json data from url

while parsing below code, I am getting unknown BaseException as ' search-results' or 'citedby-count' for some of the queries which are perfectly similar to other queries. Thanks in advance. params = get_connection_parameters(title) r=requests.get(params[0],headers=params[1],timeout=60) response = r.content data = json.loads(response) try: c_data = data['search-results']['entry'][0]['citedby-count'] value = row.strip("\n")+','+str(c_data) output.write("\n"+value) except BaseException as b: print(b) json data to be parsed: {"search-results":{ "opensearch:totalResults": "1", "opensearch:startIndex": "0", "opensearch:itemsPerPage": "1", "opensearch:Query": { "@role": "request", "@searchTerms": "TITLE(daime, a novel image analysis program for microbial ecology and biofilm research)", "@startPage": "0" }, "link": [ { "@_fa": "true", "@ref": "self", }, { "@_fa": "true", "@ref": "first", } ], "entry": [ { "@_fa": "true", "prism:url": "https://api.elsevier.com/content/abstract/scopus_id/33644868597", "eid": "2-s2.0-33644868597", "dc:title": "daime, a novel image analysis program for microbial ecology and biofilm research", "citedby-count": "298" } ] } }
Shreya Kulkarni
1

голосов
0

ответ
59

Просмотры

Django model Diamond multiple inheritance

Я веб-программирования стартера. Я делаю веб-программирование с Django. Я нашел проблему с моделированием. Ниже мой код. (Я писал об этом в Python 2.7.12.) Класс ImageModel (models.Model): класс пас FaceModel (ImageModel): Защиту сохранить (я, * арг, ** kwargs): печать "FaceModel" супер (FaceModel, самость). сохранить (* арг, ** kwargs) # Есть что-то супер (FaceModel, самость) .save () класса ObjectModel (ImageModel): защиту сохранить (самостоятельно, * арг ** kwargs): печать "ObjectModel" супер (ObjectModel, само ) .save (* арг, ** kwargs) # Есть что-то супер (ObjectModel, самость) .save () класса PlaceModel (ImageModel): защиту сохранить (самостоятельно, * арг ** kwargs): печать "PlaceModel" супер (PlaceModel , Я) .save (* арг ** kwargs) # Есть что-то супер (PlaceModel, самость). сохранить () класса AllModel (FaceModel, ObjectModel, PlaceModel): пройти Но, В результате значение, которое я хочу. Но есть одна проблема. FaceModel.save () вызовите один, ObjectModel.save () называют два и PlaceModel.save () звонить в четыре раза. Это слишком медленно. Я хочу, чтобы вызвать функцию Save () для каждой модели только один раз. Что я должен делать?
kepler92
1

голосов
1

ответ
198

Просмотры

EOFError использованием numpy.load ()

У меня есть команда, чтобы загрузить данные из файла NPY: utable = numpy.load ( «utable.npy») Но это приводит к EOFError: Файл «/home/divyat/anaconda2/lib/python2.7/site-packages/numpy /lib/npyio.py», строка 419, в нагрузки pickle_kwargs = pickle_kwargs) Файл "/home/divyat/anaconda2/lib/python2.7/site-packages/numpy/lib/format.py", строка 640, в read_array массив = pickle.load (∥f∥p, ** pickle_kwargs) EOFError Я не понимаю эту ошибку. Что именно происходит? Метод numpy.load () вызывает функцию pickle.load (), который вызывает ошибку. Файл utable.npy представляет собой файл, используемый для создания текстовых вложений с помощью skipthoughts. Я скачал файлы отсюда: https://github.com/ryankiros/skip-thoughts#getting-started
Divyat
1

голосов
1

ответ
109

Просмотры

PyQt4 QTextEdit: Вертикальный текст в HTML-таблице

Я нашел пример в PyQt4 / примеры / демо под названием TextEdit, что создает документы из HTML-файла, и я использую его для табличных отчетов, как отчеты MS Access. Все работает отлично, но я не могу установить текст в HTML-таблиц вертикально. Я пытаюсь этот код: QTextEdit Демонстрация p.vertical {режим письма: ТБ-Rl; фильтр: flipH flipV; высота: 60px; по вертикали по горизонтали 0 В браузере работает нормально, но когда я открываю его в TextEdit, это не так. Есть еще один способ, чтобы установить текст по вертикали в TextEdit?
pythoff
1

голосов
1

ответ
70

Просмотры

Невозможно увидеть большие двоичные объекты данных в CQLSH

В то время как запрашивая столбец байтов массива таблицы CASSANDRA, вместо того, чтобы отображать представление байт, CQLSH пытается декодировать значение и дает ниже сообщение об ошибке: Не удалось формат значения «\ x8eV4 \ XFE} \ xd9p5 \ xb3Q \ XF8 \ x87 \ xc1v3 \ ! xe7x \ x00 \ xd5 \ хаа>»: 'ASCII' кодек не может декодировать байт 0x8e в положении 0: порядковый не в диапазоне версии (128) Python: 2.7.14 и CQL версия: 5.0.1
Chaitanya
1

голосов
0

ответ
291

Просмотры

участок RGB с использованием cartopy pcolormesh

Я пытаюсь построить массив RGB по карте с помощью нерегулярного широчайшего массива / долготы, которые предоставляются с набором данных. Для этого я использую pcolormesh, как описано здесь. Проблема заключается в том, что cartopy pcolormesh, кажется, не в состоянии оказать данные при пересечении Dateline (180 меридиана), или, по крайней мере, я не мог найти обходной путь. Скрипт ниже регенерирует вопрос: импорт matplotlib.pyplot, как PLT импорт cartopy.crs как КЦДЗ импорта NumPy как нп # RGBA изображения г = np.array ([[0,27359769, 0,27359769, 0,27359769, 0,27359769], [0,27359769, 0,67702749, 0,85702749, 0.27359769 ], [0.27359769, 0.85702749, 0.67702749, 0.27359769], [0.27359769, 0.67702749, 0.85702749, 0.27359769], [0.27359769, 0.85702749, 0.67702749, 0.27359769], [0.27359769, 0.27359769, 0.27359769, 0.27359769]]) г = пр.
Monobakht
1

голосов
1

ответ
53

Просмотры

Combine columns in different rows in dataframe python

Я пытаюсь объединить столбцы в разных строках в dataframe. импорт панды как Pd TDF = { 'PH1': [1, 2], 'фазы 2': [3, 4], 'PH3': [5,6], 'PH4': [нан, нан]} DF = П.Д. .DataFrame (данные = TDF) DF Выход: PH1 фазы 2 PH3 PH4 0 1 3 5 нан 1 2 4 6 нан я объединил PH1, PH2, PH3, PH4 с кодом ниже: для IDX, строка в df.iterrows (): DF = пеленгации [[pH1, ph2, PH3, PH4]] DF [ "ConcatedPhoneNumbers"] = df.loc [0:]. применяются (лямбда х: '' .join (х), ось = 1) я получил ДФ [» ConcatPhoneNumbers "] ConcatPhoneNumbers 1,3,5 ,, 2,4,6 ,, Теперь мне нужно объединить эти столбцы, используя панда с соответствующей функцией. Мой результат должен быть 1,3,5,2,4,6 Кроме того, необходимо, чтобы удалить эти дополнительные запятые. Я новичок Python learner.I сделал некоторые исследования и достиг до здесь. Пожалуйста, помогите мне, чтобы получить точный подход.
Shilpa Khurana
1

голосов
0

ответ
515

Просмотры

Python скрипт демозаики с RCCB необработанного изображения

Мне нужен сценарий Python для демозаики с RCCB необработанного изображения. Я приложил образец изображения, а также. какие-либо предложения ? Большое спасибо . Я надеюсь, что я не создавал устаревший вопрос. Я мог бы понять концепцию здесь, но не знает, как сделать демозаик в питоне, хотя: /
Raj Josyula
1

голосов
0

ответ
22

Просмотры

печать выходного файла

Написание программы кластеризации для размещения точек данных в ближайшей группе. Я хотел бы программу для печати выходного файла, чтобы посмотреть, как это. Первая половина кода помещает точки в правильном кластере. Точка 1.8 в кластере точки 0 4.5 в кластере 1 пункт 1.1 в кластере 2 пункта 2.1 в кластере 0 найденных 9.8 в кластере 4, это основная часть коды itr_times = 0, а True: itr_times + = 1 кластеры = assign_to_clusters (input_points, центроиды) печать ( "Итерационные" ул (itr_times +)) для индекса в диапазоне (total_clusters): печать (индекс, кластеры [индекс]) печать ( "") centroids_updated = update_location (кластеры, центроиды), если не centroids_updated: порвать с открытым (выходной_файл, 'W'), как output_file: для р в input_points: output_file.write (с плавающей точкой ( "точка {} в кластере {} \ п".
vic
1

голосов
1

ответ
30

Просмотры

относительно выборки двумерного массива, и пусть массив выборки имеет три измерения формы

Есть два числовых массивов, train_wiggle и train_spike. Оба из которых имеют форму, как (1000,101). Физически они представляют соответственно 1000 точек, где каждая точка имеет 101 функции. Я хотел бы генерировать два соответствующих случайных выборок, wiggle_sample и spike_sample от train_wiggle и train_spike соответственно. Размер выборки 10. В конкретных, я хочу wiggle_sample и spike_sample имеют форму (10,101,1). Это то, что я Защита generate_train_samples (): sample_id = np.random.randint (низкий = 0, высокий = 999, размер = 10) input_seq = np.take (train_wiggle, sample_id, ось = 0) output_seq = np.take ( train_spike, sample_id, ось = 0) возвращение input_seq, output_seq # в форме: (batch_size, time_steps, feature_dim) х, у = generate_train_samples () при вызове функции выше, х и у имеют форму (10, 101), вместо того, (10,101,1), как я хочу.
user288609
1

голосов
0

ответ
33

Просмотры

Как я контролировать работу, которые работают в течение 3 дней с помощью Python? Любые предлагаемые модули, которые будут использовать здесь?

У меня есть сценарий, где мне нужно, чтобы загрузить некоторые большие файлы в удаленное место и работает в течение 3-х дней (700+ ГБ), здесь, все командная строка активность и нет UI или GUI, чтобы контролировать его. Как это сделать с помощью некоторых интересных и полезных модулей Python? Любые предлагаемые модули помогут здесь. В настоящее время я делаю это с помощью времени цикла, который не помогает много здесь. Я бег на работу внутри экрана, как только работа завершена - проверка md5sum каждого из файлов и сравнить его с источником и назначением. Я использую модули ОС, SYS, подпроцесс, pexpect, время, Глоб и т.д.
rk_12
1

голосов
1

ответ
43

Просмотры

как создать крюк из питона для передачи данных в mixpanel используя Dev маркер

Я хочу, чтобы создать крюк из моего кода Python для отправки пользовательских данных mixpanel из signals.py в входе и выходе. Seen примеры использования ключа API и секретные ключи, но у меня есть только маркер DEV аутентификации. Также я хочу, чтобы извлечь данные из этого крючка позже
Shruti Srivastava
1

голосов
0

ответ
385

Просмотры

Docker: multistage build for python:2.7-slim

Dockerfile FROM docker as docker CMD ["bash"] FROM python:2.7-slim as python CMD ["bash"] # base image FROM ubuntu COPY --from=docker /usr/local/ /usr/local/ COPY --from=python /usr/local/ /usr/local/ CMD ["ls", "/usr/local/bin"] Then, docker build -t test . docker run test Output: 2to3 docker docker-containerd docker-containerd-ctr docker-containerd-shim docker-entrypoint.sh docker-init docker-proxy docker-runc dockerd easy_install easy_install-2.7 idle modprobe pip pip2 pip2.7 pydoc python python-config python2 python2-config python2.7 python2.7-config smtpd.p great, I see python and docker binaries. But if i try running it.. docker run test /usr/local/bin/python --version /usr/local/bin/python: error while loading shared libraries: libpython2.7.so.1.0: cannot open shared object file: No such file or directory i dont think copying /usr/local alone is sufficient perhaps? what else do I need to do to get python working in ubuntu?
ealeon
1

голосов
1

ответ
22

Просмотры

Есть ли способ уменьшить время, необходимое для pymongo.errors.AutoReconnect произойти?

Я использую 3-узловую MongoDB набор реплики и подключение к нему с помощью PyMongo v3.3.1. При тестировании обработки ошибок, как AutoReconnect и ServerSelectionTimeout и такие, я считаю, что я не могу (безопасно / надежно) контролировать, сколько времени требуется, чтобы вызвать исключение AutoReconnect. Если я создаю экземпляр MongoClient с аргументом serverSelectionTimeoutMS устанавливает, например, 2000, я вижу исключение ServerSelectionTimeout вернуться примерно через 2 секунды. Однако, когда условия впору вызвать AutoReconnect он всегда занимает не менее 20 секунд, когда-то ближе к 30 секунд! Как я могу ограничить это поведение? Я снимаюсь для относительно высокой доступности и хочу, чтобы обнаружить сеть / набор реплик аномалий и начать свою логику повторных попыток довольно быстро.
John Carrell
1

голосов
0

ответ
62

Просмотры

Self replacing object python

Я хотел бы создать объект, который способен заменить себя с произвольным объектом, когда доступ; как в следующем: классе stand_in_object (объект): Защита __init __ (я, obj_ref): self.obj_ref Защита __getattr __ (я, ключ): передать #somehow сделать вызов ссылки в настоящее время относится к self.obj_ref #Consider: SetAttr (ссылка, название , self.obj_ref) - как получить реф, имя? #Or возможно то, что заменяет объект, находящийся на «месте» #so, что все ссылки на ид (сам) являются «наведением» на #A нового объекта. Может быть ctypes.memmove? # ------------------------ Пример использования ---------------------- класс х (объект): Защита __init __ (сам): self.y = stand_in_object (интермедиат (5)) а = х () печать AXF #calls ax__getattr __ ( 'F'), который задает. х = INT (5) Я думал, что я мог бы попробовать либо memmove, или заменить все ссылки на метод нашел этот пост: https://benkurtovic.com/2015/01/28/python-object-replacement.html Я пытаюсь чтобы сделать ООСУБД с помощью cPickle. Я хотел бы иметь постоянные объекты, которые не были загружены, можно ссылаться на дежурном в объекте, пока они не будут доступны. Что-то вроде следующий: нагруженный = {} класса stand_in (объект): Защита __init __ (самостоятельно, идентификатор, SRC): self.id, self.src = идентификатор, SRC Защиты __getattr __ (самостоятельно, ключа): загружено [self.id] = cust_unpickle (self.src) #Some функции, чтобы заменить ссылку на standin_obj с загруженным объектом четкости persistent_load (ID): если идентификатор в загруженном: возвращение загружается [ID] еще: обратный stand_in (ID, SRC) # ------ --------------------Пример----------------------------- - база данных хранит #consider объекты а и с, и ас = с.
Paul S.
1

голосов
1

ответ
567

Просмотры

How to assign the python interpreter spark worker used?

Как назначить питон переводчика искровой работника используется? я попробовать несколько метод, как: 1) установить окр Варс экспорт PYSPARK_DRIVER_PYTHON = / python_path / бен / экспорт питон PYSPARK_PYTHON = / python_path / bin / питон не работает. Я уверен, что использование окр набор успеха PYSPARK_DRIVER_PYTHON PYSPARK_PYTHON: окр | Grep PYSPARK_PYTHON я хочу pyspark использование / python_path / bin / Python как интерпретатор Отправной питона, но рабочий начать использовать: питон -m Deamon я не хочу, чтобы связать по умолчанию питона / python_path / bin / питона в том, что это может влияет на другой УБС, BCZ питон по умолчанию и / python_path / bin / питон не совпадает с версией, и как при использовании продукции. Также установлено spark-env.sh не работает: spark.pyspark.driver.python = / python_path / bin / питон spark.pyspark.python = / python_path / bin / питон, когда водитель запуска некоторые предупредительные журналы как: конф / искрового окр. ш: строка 63: искры.
Moon.Hou
1

голосов
0

ответ
74

Просмотры

Задержка при использовании Google Calendar API с Python 3.6.2

За примером сценария на странице здесь я заметил, что в Python 2.7.14 пример работает быстро. Когда я изменил питон 3.6.4 (для обеспечения совместимости со сценарием я делаю) есть около 21 второго спада с рассматриваемой линией: обслуживание = discovery.build ( «календаря», «» v3, HTTP = HTTP) Однако, если отключить ipv6 на моем сетевом интерфейсе, он возвращается к обработке более быстро. Может кто-нибудь объяснить этот вопрос, и что я могу сделать, чтобы работать более эффективно, не имея мешать функциональности ipv6?
Masterisk
1

голосов
0

ответ
1.4k

Просмотры

Как извлечь текст из небольшого изображения с помощью Python OpenCV

Я новичок в OpenCV питона, вы можете мне помочь, чтобы извлечь текст из маленького изображения, я, возможно, пытался онлайн tutorial.But я не получаю точный результат. Мое изображение. Мой код импорта SYS импорта CV2 в качестве резюме импорта NumPy как нп импорт pytesseract из pytesseract импорта image_to_string IMG = Image.open ( 'SampleImage.PNG') IMG = im.filter (ImageFilter.SHARPEN ()) энхансер = ImageEnhance.Contrast (IMG) img.save ( "Cleaned1.PNG", качество = 100) img.show () pytesseract.pytesseract.tesseract_cmd = 'F: \\ тессеракт-OCR \\ тессеракт' печати ( "OCR Выход:" + pytesseract.image_to_string (IMG ))
udya
1

голосов
1

ответ
37

Просмотры

как отделить обслуживаемое статус от 400 статуса в response.text

Я получаю две противоречивые сообщения об ошибках от моего запроса PUT. Я использую модуль запросов Python и client.The response.text выглядит следующим образом: {u'status «: 400, u'errors»: { 'u'error: u'We определили 1 ошибка в запросе: (1) Мы не смогли загрузить URL '}, u'reference': u'4C7EC36B: CE5D_0A40E1F1: 01BB_5A822CF3_EFE35: 18B1} {u'status ': u'accepted ' u'mediaId': u'f3327905-1873- 4e0d-b07c- 4e7f88741c3b», u'_links ': {u'self': {u'href ': и' / v2- бета / медиа / f3327905-1873-4e0d-B07C-4e7f88741c3b '}}, u'metadata' : {}} проблема заключается в том, что мой код должен использовать MediaId и если первые 400 статус не были там, было бы читать, но так как я не могу избавиться от этой ошибки, Мне нужно, чтобы пропустить мимо него и прочитать ответ с «статусом»: «принято» и MediaId. Я попытался итерация через него с этим: для статуса в ответ: если 'статус' есть 'принят': FILE_URL = fileURL external_id = ExternalId media_id = ответ [ 'MediaId'] = статус ответ [ 'статус'] results_writer.writerow ([FILE_URL , external_id, media_id, статус]) Элиф «статус»> 200: печать «блат», и это идет только на 400 статус, не выполнив первый «если» statement.How я мог изменить его прочитать «принято» ответ состояния ?
topplethepat
1

голосов
0

ответ
35

Просмотры

Как зарегистрировать функцию обратного вызова из C в Python с использованием вложения питона

Я хочу, чтобы зарегистрировать свою функцию обратного вызова (написанный на C) для питона кода из C / C ++. Как я могу это сделать? не могли бы вы мне помочь? pythoncode.py Защиту receive_messages (Arg, callbackfunc): event.eventfunction (обратный вызов = callbackfunc) sample.c недействительный my_callback (символ * тзд) {Е ( "внутри my_callback:% s \ п", MSG); } Register_callback_fun (my_callback) {// импорт модули фрагменты кода ?? }
Bala

Просмотр дополнительных вопросов