Вопросы с тегами [csv]

1

голосов
3

ответ
15.9k

Просмотры

Как изменить расширение файла в VBA

Я чувствую, как это должно быть простым, но я не могу найти ответ. Я спасаю кучу CSV файлов с помощью VBA и хотел бы изменить все расширения файлов с расширением .csv в .txt импортировать в другую программу (Revit), которая распознает только расширение .txt. Это возможно? Вот команда, я использую. Для I = 1 WS_Count пути = Curdir () + "\" + ActiveWorkbook.Worksheets (I) .name Sheets (ActiveWorkbook.Worksheets (I) .Name) .Select ActiveWorkbook.SaveAs Имя файла: = путь, FileFormat: = xlCSV, CreateBackup: = False Имя пути As ( "путь" + ".txt") Next I Спасибо!
user1707675
0

голосов
1

ответ
16

Просмотры

No Output fast-csv writeToPath

Я пишу сценарий, который по своей сути разбирает файл .csv для определенных столбцов, хранящих их в массиве, а затем записывает его содержимое в другой файл .csv. Я могу разобрать файл, используя быстрый-CSV и подтвердил в терминале, что мой массив находится в правильном формате. Однако, когда я пытаюсь написать этот массив с помощью быстрого-CSV в файл .csv, содержимое никогда не появляются в файле и никаких ошибок не выбрасываются. Я подтверждено, что массив передается весь путь вплоть до обратного вызова. Кроме того, я зашел так далеко, чтобы заменить эту переменную в функции writeToPath с помощью простого массива и до сих пор не повезло. Любая помощь будет оценена. Const ProcessFile = (имя_файла, файл, CB) => {пусть WriteData = [] пусть tempArray = [] csv.fromPath (BasePath + файл, {ignoreEmpty: ложные, заголовки: ложь}) .on (»
mattymil
1

голосов
2

ответ
76

Просмотры

ArangoDB: Как экспортировать коллекцию в CSV?

Я заметил, что это функция в веб-интерфейсе ArangoDB, который позволяет пользователям загружать или выгружать данные в формате JSON файла. Тем не менее, я не нашел ничего похожего на CSV экспортирующих. Как существующую коллекцию Аранго DB можно экспортировать в файл .csv?
BugBuddy
1

голосов
5

ответ
95

Просмотры

Быстрый способ организовать классифицированных данных в текстовый файл и конвертировать в CSV

У меня есть текстовый файл с сотнями строк. Поля данных и значения, разделенных двоеточием и одна пустая строка разделения каждого набора данных. Это выглядит, как это ... иконка: дождь temperatureHigh: 55,37 temperatureLow: 42,55 влажность: 0,97 WindSpeed: 6,7 precipType: дождь precipProbability: 0.97 значка: частично облачный день temperatureHigh: 34,75 temperatureLow: 27,1 Влажность: 0,8 WindSpeed: 15,32 precipType: значок 0,01 Я изо всех сил пытается форматировать это в CSV с желаемый результат, глядя, как это ...»: снег precipProbability: 0.29 значок: прозрачный день temperatureHigh: 47 temperatureLow: 31,72 влажность: 0,64 WindSpeed: 9,27 precipType: дождь precipProbability " "temperatureHigh", "temperatureLow", "влажность", "WindSpeed", "precipType", "precipProbability" "дождь", "55.37"," 42.
Johnny Carino
1

голосов
2

ответ
32

Просмотры

Как создать цикл, чтобы открыть, мутируют и сохранять файлы .csv с помощью R?

У меня есть несколько .csv файлов, которые должны быть переформатирован и снова сохраняются с помощью R сценария. Функция, которая необходима, чтобы сделать изменения и переформатирование файлов, уже установлена ​​и работает прекрасно. Но, как всегда есть много документов, чтобы изменить, я хотел бы иметь для Lloop, так что я не должен адаптировать свой код для каждого отдельного документа. Но, к сожалению, у меня нет опыта в использовании петель с использованием R до сих пор. Мой код выглядит следующим образом в данный момент: setwd ( "C:. / Пользователей / Desktop / Raw /") Д.Ф.
Hotshot
1

голосов
2

ответ
32

Просмотры

выбор по меткам и запись в формат CSV

Я новичок в панду так надеюсь, что это легко исправить. Я пытаюсь создать CSV-файл, который содержит только столбцы, называемые в df.loc []. Мой файл CSV в настоящее время показывает все доступные строки / столбцы так что выбор не работает. импорт запросов, импорт панды JSON как П.Д. # URL и даты, установленной ранее ответ = requests.post (URL, дата, заголовок = { 'Authorization': 'OAuth mycode'}) если response.status_code == requests.codes.ok: response_json = response.json () печать ( '\ п \ п \ nReturned JSON \ п \ п \ п') печати (json.dumps (response_json, sort_keys = True, отступы = 4, отделители = ( '', ':' ))) # DF = pd.DataFrame.from_dict (response_json) DF = pd.DataFrame (response_json) печати (df.keys ()) df.loc [: [ 'Комментарий', 'EndTimeLocalized', 'Id',» StartTimeLocalized ']] df.to_csv (»
Bixby
1

голосов
2

ответ
57

Просмотры

Как я могу создать dataframe из данных я соскабливают с веб-сайта?

текст суп = BeautifulSoup (источник, 'LXML') Результаты = [] для работы в soup.findAll (класс 'результат' _ =): результат = { 'JOB_TITLE': '', 'компании': '', 'кратко': «», «ссылка»: «», «summary_text»: «»}, и после того, как с помощью петли, я просто распечатать результаты. Что бы быть хорошим способом, чтобы получить выход в dataframe? Спасибо! } И после того, как с помощью петли, я просто распечатать результаты. Что бы быть хорошим способом, чтобы получить выход в dataframe? Спасибо! } И после того, как с помощью петли, я просто распечатать результаты. Что бы быть хорошим способом, чтобы получить выход в dataframe? Спасибо!
Harshmallo
1

голосов
2

ответ
37

Просмотры

Как захватить напечатанные данные из моего CSV с помощью питона

Отказ от ответственности: Я первый раз «программист», и это мой первый проект. Пожалуйста, будьте терпеливы, поскольку я все еще учусь терминологию наряду со всем остальным, что идет с ним. Я пытаюсь захватить конкретные данные из моего CSV и ввода этих данных в мой питон скрипт чирикать его. (Im делая бот Twitter). Это код, который я до сих пор: импорт CSV с открытым ( 'data.csv'), как csvDataFile: данные = список (csv.reader (csvDataFile)) печать (данные [25] [2]) Это позволяет мне импортировать мой CSV а затем выберите столбец и строку, в которой мой твит цитата. Вот что выглядит мои данные, как: id_serial, id_season, цитирую, FILE_PATH, id_group, trigger_time 1, S1E01, "Люди говорят, что я лучший босс Они идут„“Бог нас никогда не работал в таком месте, как это, прежде чем. «повторно весел И вы получите лучшее из нас„“» ,, 001,09..: 00 утра EST 2, S1E01, я думаю, что это довольно много суммы его вверх, / дома / пи / Desktop / OfficialDundies / СМИ / 001.png, 001,11: 00 утра EST Я хотел бы быть в состоянии захватить «напечатаны» цитаты и сохранить его в качестве переменной, так что я могу вспомнить его позже. В идеале, мой бот будет захватывать цитаты и проверить «trigger_time», чтобы увидеть, если это время, чтобы чирикать.
Zach Pi
1

голосов
0

ответ
123

Просмотры

Create a dictionary from a csv with variable length entries

У меня есть CSV с 8 клавишами. Каждый ключ содержит список переменной длины для ее значений. Я использовал csv.DictWriter создать CSV, теперь я хочу, чтобы читать в CSV-файл в словаре. Я налил через документы на csv.DictReader и csv.reader, и это то, что я придумал: ReadCSVasDict четкости (csv_file): с открытым (csv_file) как файл: читатель = csv.reader (файл) DataTree = { "Класс": [], "ClassID": [], "Корабль": [], "ShipID": [], "Диапазон": [], "RangeID": [], "AOB": [], "AOBID": []} клавиши = список (DataTree.keys ()) для RowIndex, строки в перечислении, (считыватель): если RowIndex = 0: DataTree [клавиша [RowIndex-1]] = строка [RowIndex-1] ReadCSVasDict ( «DataTree.csv») Первая строка CSV являются ключами (именно поэтому я пропустить строка 0), и это почти работает, но я не могу понять, как разобрать через запись, сохраняя их типа, так как DictWriter преобразует все в строку. Как можно прочитать в формате CSV и извлечь тип каждого элемента в каждом списке? Образец данные выглядят следующим образом: Класс, ClassID, корабль, ShipID, диапазон, RangeID, А, AOBID "[ 'Неизвестный', 'Парусник']" ,,,,,,, "[1, 2]" ,,, ,,, ,, "[[ 'Неизвестные 1'], [ 'Парус 1', 'Парус 2', 'Парус 3']]" ,,,,, ,,, "[[11], [21, 22 , 23]] ",,,, ,,,, "[[[1000]], [[500, 1000], [1000], [500, 2000]]]" ,,, ,,,,," [ [[111]], [[211, 212], [221], [231, 232]]]»,, ,,,,,, [], ,,,,,,, [] с помощью кода, который генерируется это: защиту WriteDictasCSV (csv_file, dataDict): с открытым (csv_file, 'ш', новая строка = '') в файле: имя поля = [ "класс",»
Drew Wilkins
1

голосов
0

ответ
63

Просмотры

Как использовать комментарии в формате CSV таблицы, чтобы получить текст классификации?

I have several statements if people like a product or not I have anonymized the comments, and used other names. As the classification problem is very similar to those of movie reviews, I relied totally on the tutorial from http://www.nltk.org/book/ch06.html. Section 1.3. from nltk.corpus import movie_reviews documents = [(list(movie_reviews.words(fileid)), category) for category in movie_reviews.categories() for fileid in movie_reviews.fileids(category)] random.shuffle(documents) all_words = nltk.FreqDist(w.lower() for w in movie_reviews.words()) word_features = list(all_words)[:2000] [1] def document_features(document): [2] document_words = set(document) [3] features = {} for word in word_features: features['contains({})'.format(word)] = (word in document_words) return features featuresets = [(document_features(d), c) for (d,c) in documents] train_set, test_set = featuresets[100:], featuresets[:100] classifier = nltk.NaiveBayesClassifier.train(train_set) So far so good. My concern is that my data are organized in following way. sex;statement;income_dollar_year "m";"I REALLY like milk. It taste soo good and is healthy. Everyone should drink it";40000 "f";"Milk itself is tasty, but I don't like how cows are kept in huge stables";30000 "m";"I don't like milk, I have intolerance against lactose, so my stomach pains";35000 I just want to have labels that say that statement one and two are positive and third one is negative. I also know that I have to remove all words that are not in the dataset, otherwise I would have Zeros and that would make me into trouble. As I do not have an idea about how the data in movies_review are exactly organized, I don't come to a solution. my idea is to get a csv like this: sex;statement;income_dollar_year;class "m";"I REALLY like milk. It taste soo good and is healthy. Everyone should drink it";40000;"pos" "f";"Milk itself is tasty, but I don't like how cows are kept in huge stables";30000;"pos" "m";"I don't like milk, I have intolerance against lactose, so my stomach pains";35000;"neg"
smurfit89
1

голосов
0

ответ
261

Просмотры

Как напечатать отчет CSV в браузере odoo?

Я пытаюсь напечатать некоторые поля account.invoice и account.invoice.line Во-первых, я добавил кнопку для печати в формате CSV отформатированный отчет. это я пытаюсь в код четкости print_csv (само): строки = [] lines.append (([ 'Наименование', 'Цена единицы', 'Количество'])) для гее в self.invoice_line_ids: lines.append (( [rec.product_id.name, rec.price_unit, rec.quantity])) с открытым ( 'invoice_details.csv', 'W'), как FP: а = csv.writer (FP, разделитель = '') = data_lines линии a.writerows (data_lines) файл .csv файл загружается в не браузер, он загружается в папку по умолчанию. Как перенаправить в файл для загрузки в веб-браузере ?? Я знаю, что это может, реализован с использованием контроллеров в odoo.
aslamsha22
1

голосов
0

ответ
69

Просмотры

питон JSON в CSV, код можно только разобрать часть JSon данных

new_key = parent_key + Сентябрь + к, если parent_key еще к is_lst = True, если isinstance (v, список) еще Ложный если isinstance (v, collections.MutableMapping) или is_lst: если is_lst: items.extend (расплющить (v [0], new_key , сентябрь = сентябрь) .items ()) еще: items.extend (расплющить (V, new_key, сентябрь = SEP) .items ()) еще: items.append ((new_key, v)) возвращение Dict (элементы) с открытым ( "reuse.txt"), как F: DIC = json.load (е) df_ = [сплющить (я) для г при ДВС] DF = pd.DataFrame (df_) df.to_csv ( 'out.csv', индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь список) еще Ложные если isinstance (v, collections.MutableMapping) или is_lst: если is_lst: items.extend (расплющить (V [0], new_key, Сентябре = SEP) .items ()) еще: items.extend (расплющить (v , new_key, сентябрь = септет) .items ()) остальное: items.append ((new_key, v)) возвращение ДИКТ (элементы) с открытым ( "reuse.txt"), как F: DIC = json.load (е) df_ = [сплющить (I) при г в DIC] DF = pd.DataFrame (df_) df.to_csv ( 'out.csv', индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь список) еще Ложные если isinstance (v, collections.MutableMapping) или is_lst: если is_lst: items.extend (расплющить (V [0], new_key, Сентябре = SEP) .items ()) еще: items.extend (расплющить (v , new_key, сентябрь = септет) .items ()) остальное: items.append ((new_key, v)) возвращение ДИКТ (элементы) с открытым ( "reuse.txt"), как F: DIC = json.load (е) df_ = [сплющить (I) при г в DIC] DF = pd.DataFrame (df_) df.to_csv ( 'out.csv', индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь пункты ()) еще: items.extend (расплющить (V, new_key, Сентябрь = SEP) .items ()) еще: items.append ((new_key, v)) возвращение ДИКТ (элементы) с открытым ( "reuse.txt" ), как F: выпо = json.load (е) df_ = [сплющить (я) для г при ДВС] DF = pd.DataFrame (df_) df.to_csv ( 'out.csv', индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь пункты ()) еще: items.extend (расплющить (V, new_key, Сентябрь = SEP) .items ()) еще: items.append ((new_key, v)) возвращение ДИКТ (элементы) с открытым ( "reuse.txt" ), как F: выпо = json.load (е) df_ = [сплющить (я) для г при ДВС] DF = pd.DataFrame (df_) df.to_csv ( 'out.csv', индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь Индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь Индекс = False) код может только разобрать CPEVENT, другие переменные, такие как CPEVENT2, CP_UNSCHEDULED, VISIT_NUMBER, VISIT_NUMBER2 в AE_E не существующие здесь. что я хотел бы получить это: введите описание изображения здесь
Allen Wei
1

голосов
0

ответ
59

Просмотры

mongodb - strategy from having relational DB CSV dump imported to highly denormalised mongodb documents

Мы хотим, чтобы перенести данные в MongoDB используя CSV файлы дампа, созданные из Teradata. должно быть обновлены в MongoDB каждую ночь из свежей Teradata Csv самосвала подхода мы соберемся есть данные: Получить файлы CSV, экспортированные из реляционного БД. Они будут очень похожи на структуру таблицы в реляционной БД Импорт файлов CSV в коллекции MongoDB постановочных впоследствии, которая будет зеркальное отображение реляционной структуры БД в терминах нормализуется. Это может быть сделано с помощью сказать mongoimport в ночных партиях. Это будет приводить во многих коллекциях, как мы думаем импортировать каждый «тип» CSV в свою собственную коллекцию, например, Customers.csv и Accounts.csv приведет к двум соответствующим коллекциям же имя. Создание де-нормированные коллекции из коллекций постановочных, готовые к воздействию UI. Выполнить некоторые миграции схемы скрипт, который запрашивает коллекции поэтапности и создает более denormalised и меньше коллекции готовых к использованию в приложении UI.Eg, клиенты и Аккаунты коллекции, после запуска сценария перенастройки должно привести к третьей коллекции говорят коллекции AccountCustomers где Каждая учетная запись документ имеет встроенные клиенты массив (denormalised и никакой необходимости не включается, когда пользовательский интерфейс нуждается в данных) Вопрос: есть ли лучшая стратегия, так как все эти шаги должны завершить каждую ночь, каждую ночь? Вопрос: Является ли mongoimport OK использовать для импорта файлов CSV в ночных партиях. Вопрос: Что такое лучший способ мигрировать (denormalise) коллекцию в пределах одного экземпляра Монго Например, мы StagingDB имея коллекции клиентов и счета, и мы хотим, чтобы достичь состояния, когда мы proddb имея коллекцию accountcustomers который запрашивает коллекцию поэтапности и создает более denormalised и меньше коллекции готовыми к использованию в приложении UI.Eg, клиенты и счетам коллекции, после запуска сценария перенастройки должна привести к третьей коллекции говорят коллекции AccountCustomers, где каждый документ имеет встроенный счет клиентам массив (denormalised и никакой необходимости не включается, когда пользовательский интерфейс нуждается в данных) Вопрос: есть ли лучшая стратегия, так как все эти шаги должны завершить каждую ночь, каждую ночь? Вопрос: Является ли mongoimport OK использовать для импорта файлов CSV в ночных партиях. Вопрос: Что такое лучший способ мигрировать (denormalise) коллекцию в пределах одного экземпляра Монго Например, мы StagingDB имея коллекции клиентов и счета, и мы хотим, чтобы достичь состояния, когда мы proddb имея коллекцию accountcustomers который запрашивает коллекцию поэтапности и создает более denormalised и меньше коллекции готовыми к использованию в приложении UI.Eg, клиенты и счетам коллекции, после запуска сценария перенастройки должна привести к третьей коллекции говорят коллекции AccountCustomers, где каждый документ имеет встроенный счет клиентам массив (denormalised и никакой необходимости не включается, когда пользовательский интерфейс нуждается в данных) Вопрос: есть ли лучшая стратегия, так как все эти шаги должны завершить каждую ночь, каждую ночь? Вопрос: Является ли mongoimport OK использовать для импорта файлов CSV в ночных партиях. Вопрос: Что такое лучший способ мигрировать (denormalise) коллекцию в пределах одного экземпляра Монго Например, мы StagingDB имея коллекции клиентов и счета, и мы хотим, чтобы достичь состояния, когда мы proddb имея коллекцию accountcustomers
Mohsin Hakak
1

голосов
1

ответ
122

Просмотры

Python CSV: Добавлять в COLUMN, дублированные записи

Я пытаюсь записать в файл CSV, каждый новый вход в колонну, но каждый раз, когда файл CSV получает повторяющиеся записи. Я хотел бы создать 1, 2, 3 строки, только если они не существуют, чтобы быть первым, а затем добавить данные в колонке 1, 2 и 3. Я имеющего текущий код: импорт _csv MyData = [[ 1, 2, 3], [ 'Доброе утро', 'Добрый вечер', 'Добрый день']] Myfile = открыт ( 'csvexample3.csv', 'а') с Myfile: писатель = _csv.writer (Myfile) писатель .writerows (MyData) И результат я получаю: 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день 1,2,3 Доброе утро, Добрый вечер, Добрый день Я только как сценарий для создания колонн 1, 2 и 3, если они не существуют, то я хотел бы добавить файл к тому, что строки. Этот сценарий будет функцией,
Dav Marika
1

голосов
0

ответ
47

Просмотры

питон Matplotlib OHLC ошибка

Цель этого кода для построения CSV-файл, который содержит 7 столбцов [ «Дата», «Время», «Открыть», «High», «Low», «Закрыть», «Объем»] в свечной график OHLC. Я начал с разбора дата время как одну вещь, то определив его как индекс. Вот код: импорт панды как PD импорт matplotlib.pyplot как PLT из matplotlib.finance импорта candlestick_ohlc импорта matplotlib.dates как mdates COLUMN_NAMES = [ 'Дата', 'Time', 'Open', 'High', 'Low', 'Закрыть', 'Volume'] DF = pd.read_csv (г "E: \ Бизнес \ Акции \ AUDUSD60.csv", имена = COLUMN_NAMES, parse_dates = { 'DateTime': [ 'Дата', 'Time']}, index_col = [0], заголовок = None, low_memory = False) f1 = plt.subplot2grid ((6, 4), (1, 0),
Sayed Gouda
1

голосов
1

ответ
31

Просмотры

Проблема с Powershell Excel пытается бросить .csv значения

На данный момент, я считаю, что это может быть проблемой файлового ввода / вывода. Хотя использование сценария Powershell вызова методов Excel, чтобы пройти через CSV-файл с веб-сайта, PowerShell пытается бросить заполнители для данных, которые слишком долго для ячейки «#######» вместо даты и времени, содержащейся в «клетке» (поисковые системы, возможно, потребуется «знак фунта» или «хэштегом», чтобы достичь этого результата). Ниже обижая часть сценария. [DateTime] $ S = $ sheet.Cells.Item ($ Ряды + $ я, $ Cols) .text [DateTime] $ G = $ sheet.Cells.Item ($ rowG + $ я, $ colG) .text [DateTime] $ а = $ sheet.Cells.Item ($ Rowa + $ я, $ colSWScan) .text данные должны существовать в виде ММ / ДД / YYYY HH: MM, но читается Powershell / PSExcelModule как #######, который является то, что отображается в графическом интерфейсе Excel при открытии файла. Это лишь часть того, что делает весь сценарий. Любые предложения о том, как устранить ошибку при сохранении использования PSExcel-модуле будут наиболее полезными. Stackoverflow, кажется, есть проблема со мной отправляя сообщение об ошибке многословного, и это мой первый пост. Дайте мне знать, если это будет helfpul с устранением неполадок. Редактировать для комментариев # 1: # Создать экземпляр Excel.Application и Open Excel файл $ objExcel = New-Object -ComObject Excel.Application # Открыть файл $ Учебное пособие = $ objExcel.Workbooks.Open ($ файл) # Активировать первый лист $ лист = $ workbook.Worksheets.Item ($ SheetName) $ objExcel.Visible = $ ложного После того, как моя голова из «Excelland», я понял, что это может быть проще переписать сценарий, чтобы использовать .csv организацию ( оригинал импортированный файл для сценария был .xlsx), но я правда не знаком с. CSV сценариев. Тем не менее, первоначальный вопрос все еще стоит, а я переписать код, как я, возможно, придется вернуться к .xlsx импортированных документов. Спасибо за предложение JE Carter II. Ответ: $ objExcel.Cells.EntireColumn.AutoFit () Кредит JE Carter II
LifeOfThePotty
1

голосов
2

ответ
515

Просмотры

Сохранить CSV с + Вход Swift 4

Я пытался сохранить CSV-файл со знаком «+» в нем, но по какой-то причине знак + просто уходит. Ниже мой код и фотография файла CSV открыт в Excel. Сохранить CSV код: пусть FileName = DateString + "-Payments.csv" вар csvText = "Имя, деньги, дата \ п" вар Newline = "Test 1, +400, 11-10-18 \ п" csvText.append (Newline ) Newline = "Тест 2, +400, 11-10-18 \ п" csvText.append (Newline) Newline = "Тест 3, +400, 11-10-18 \ п" csvText.append (Newline) Newline = " Тест 4, +400, 11-10-18 \ п»csvText.append (Newline) Newline = "Тест 5, +400, 11-10-18 \ п", если позволить DIR = FileManager.default.urls (для:. documentDirectory в: .userDomainMask) .first {пусть fileURL = реж. appendingPathComponent (Filename) у {попробуйте csvText.write (к: fileURL, атомарно: ложное, кодирование: .utf8) // Код для того чтобы представить UIActivityViewController было удалено. } Поймать {печать ( "\ (ошибка)")}} CSV файла: Могут ли из вас помочь? Благодарю. Редактирование: Ниже код, который создает Коррумпированную CSV файл. Есть идеи? пусть имя_файл = DateString + "-Clients.xls" вар csvText = "Имя, Адрес, дата, цена, Дни-Left \ П" для пользователя в paymentArray {пусть Newline = «\ (user.name), \ (user.location ), \ (user.date), \ (user.money), \ (user.daysLeft) \ п»csvText.append (Newline)}, если позволить DIR = FileManager.default.urls (для: .documentDirectory в:. userDomainMask) .first {пусть fileURL = DIR.
kps2501
1

голосов
1

ответ
39

Просмотры

как вставить строки из CSV конкретных столбцов в существующей таблице в Postgres + питон?

Я новичок в Python специально термос и работать на персональном веб-приложение, я получаю CSV файл от пользователя в моем HTML код, и я хочу, чтобы прочитать каждую строку и вставить специфические клетки из этой строки, к определенным столбцам в ванной существующих таблица в Postgres, используя питон панду колбу. получение этой IndexError ошибки: индекс строки из диапазона моего кода это bkfile = request.files [ «bk_file»] Conn = psycopg2.connect ( «хост = локальный имя_бд = saveory пользователя = пароль пользователя = передача») дворняжка = conn.cursor () DF = pd.read_csv (bkfile) для строки в ДФ: если не грести [5]: запрос = ( "INSERT INTO main_table (столбец2, column4, column5, column6) ЗНАЧЕНИЯ (строка [1], строка [3], строка [6], 'заряд') ") cur.execute (запрос), если не грести [6]: запрос = (" INSERT INTO main_table (Столбец2, column4,
Tal Alterzon
1

голосов
1

ответ
101

Просмотры

Shell-Script, чтобы объединить все файлы CSV в каталоге с двумя ключевыми столбцами

Я изо всех сил на некоторое время теперь. У меня есть каталог с более чем 5 файлов CSV. Идея заключается в том, чтобы присоединиться к ним все с помощью сценария (возможно с петлей?). Пример только с двумя файлами: File1 1; 1.1; хуг 1; 1.2; аЬс 2; 2,1; GFA Файл2 1; 1.1; ТСП 1; 1.2; ASD 2; 2,1; QWE Выходной файл должен выглядеть следующим образом: 1; 1.1; хуг; ТСП 1; 1.2; а; ASD 2; 2,1; GFA; QWE В каждом файле CSV, первые два столбца «первичный ключ». Я пробовал с присоединиться и AWK, но я не понимаю (неправильный подход?). Спасибо за помощь.
Teo
1

голосов
0

ответ
151

Просмотры

Импорт CSV в SQLite без одинарных кавычек

У меня есть данные в CSV-файл в формате first_name, second_name, NICK_NAME и т.д., а значения в .csv сохраняется с одиночным qutoes, например «Джоном», «Фитиль», «Johny» Я хочу, чтобы импортировать эти данные во вновь созданном SQL база данных, но я хочу, чтобы избавиться от этих одинарных кавычек. Я импортировать этот файл в таблицу вновь созданного заявитель таблицы, как это: .mode CSV .import applicants.csv соискателей Кто-нибудь есть идея, как я могу imort этих данных без цитат?
1

голосов
1

ответ
280

Просмотры

Problems with replacing missing values in a DataFrame with Julia 0.6.2

Итак, я предварить это тем, что я новый I язык Юлия и пытается работать через некоторые учебники по обработке массивов данных. Но я, кажется, ударяя проблемы с обработкой отсутствующих значений и не могу показаться, чтобы выяснить, что случилось. В частности: У меня есть 11 х 5 DataFrame, содержащая некоторые тестовые данные (с недостающими значениями), что я загрузить в Julia с помощью: D = CSV.read ( "name.csv"; rows_for_type_detect = 10); Это прекрасно работает, но для того, чтобы реально использовать данные, мне нужно обрабатывать пропущенные значения. Пропустив их полностью работает просто отлично, но в идеале я хотел бы заменить их чем-то разумное (среднее, и т.д.). В теории, это выглядит, как это должно быть просто из документации «Missings». Тем не менее, в качестве простого примера, если я бегу: Missings.replace (D [: COL4], У меня возникли некоторые проблемы с пониманием этого выхода. Существует более чем один отсутствующее значение в COL4. Таким образом, с самого начала, это неправильно ( «замена -> 1»?). Однако, она не только не заменить одно значение, оно не в состоянии заменить любые значения. DataFrame D остается неизменным, отсутствующие значения нетронутыми. Кто-нибудь есть какие-либо идеи, что здесь не так? (или альтернативные предложения о том, как выполнить замену отсутствующих значений в DataFrame в Джулию?) Я бег Джулии 0.6.2. У меня возникли некоторые проблемы с пониманием этого выхода. Существует более чем один отсутствующее значение в COL4. Таким образом, с самого начала, это неправильно ( «замена -> 1»?). Однако, она не только не заменить одно значение, оно не в состоянии заменить любые значения. DataFrame D остается неизменным, отсутствующие значения нетронутыми. Кто-нибудь есть какие-либо идеи, что здесь не так? (или альтернативные предложения о том, как выполнить замену отсутствующих значений в DataFrame в Джулию?) Я бег Джулии 0.6.2. Кто-нибудь есть какие-либо идеи, что здесь не так? (или альтернативные предложения о том, как выполнить замену отсутствующих значений в DataFrame в Джулию?) Я бег Джулии 0.6.2. Кто-нибудь есть какие-либо идеи, что здесь не так? (или альтернативные предложения о том, как выполнить замену отсутствующих значений в DataFrame в Джулию?) Я бег Джулии 0.6.2.
Charles Munson
1

голосов
0

ответ
95

Просмотры

Scrapy разделить детали после обработки с помощью трубопровода

Мне нужно расщепленные элементы, которые я получил после обработки для трубопровода. Проблема у меня есть, чтобы загрузить группу CSV с веб-сайта, для этого я использовал трубопровод FilesPipeline, как предполагают документацию. После загрузки CSV мне нужно обрабатывать, что и создавать новые элементы, которые будут процессом для другого трубопровода. Фрагменты моих настроек кода custom_settings = { 'ITEM_PIPELINES': { 'scrapy.pipelines.files.FilesPipeline': 1, 'myproj.pipelines.files.PreprocessCSVPipeline': 50 'myproj.pipelines.files.SaveDBPipeline': 300} , 'FILES_STORE': os.path.dirname (os.path.abspath (__ FILE__))} синтаксический анализ (разбор Защиты самоощущения, ответ): self.logger.info ( "В методе синтаксического анализа !!!") # Свойство собственность property_ownership = ответ. ) Files_addr = {} для й в файлах: #process CSV ... выход Вопроса о том, что документация для трубопровода определяет, что process_item должен либо вернуть Dict с данными, а не итератор. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. выход Вопрос о том, что документация для трубопровода указывает, что process_item должен либо вернуть Dict с данными, а не итератора. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Есть вопрос об этом, и в конце концов они рекомендуют использовать промежуточное программное обеспечение для этого. Я рассмотрел архитектуру, и я отметил, что промежуточный слой работ до трубопровода, и я использую FilesPipeline для загрузки CSV. Так что если я использую промежуточное я должен Dowload де CSV в ПО промежуточного слоя тоже. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо. Можно ли решить мою проблему с помощью FilesPipeline? или мне нужно, чтобы загрузить CSV к промежуточному разделить мои вещи? Во 2-м случае, как загрузить в формате CSV промежуточного слоя? возможно с помощью команды завитка с Linux, но мне не нравится это решение. Любое предложение приветствуется заранее спасибо.
Cyberguille
1

голосов
1

ответ
82

Просмотры

Использование CSV-файл с несколькими символами новой строки в Python 3

Я пытаюсь импортировать файл CSV, который имеет # в качестве разделителей и \ г \ п в качестве линии разрыва. Внутри одного столбца есть данные, которые также символ новой строки в нем, но \ п. Я могу прочитать одну строку за другой без проблем, но с помощью CSV LIB (Python 3) Я застрял. Ниже пример бросает ошибку: символ новой строки видел в некотируемоге поля - вам нужно открыть файл в режиме универсального перевода строки? Можно ли использовать CSV LIB с несколькими символами новой строки? Спасибо! импорта CSV с открытой ( '../ database.csv', перевод строки = '\ г \ п'), как csvfile: файл = csv.reader (csvfile, разделителем = '#', QuoteChar = '"') для строки в файле : печать (строка [3]) database.csv: 2202187 # "645cc14115dbfcc4defb916280e8b3a1" # "cd2d3e434fb587db2e5c2134740b8192" # "{Возраст = 22; Доход = 242; }
Mike Nathas
1

голосов
1

ответ
28

Просмотры

Python3 Замена специального символа из CSV-файла после преобразования же от JSON

Я пытаюсь разработать программу с помощью Python3.6.4, которая конвертировать файл JSON в файл CSV, а также нам нужно очистить данные в файле CSV. как, например: My JSON Файл: {эми: [{ "Имя": "Бо # б", "электронная почта": "[email protected]", "Де": "Unknown"}, { "Name":» Мартин»,„электронная почта“:„mar#[email protected]“,„Де“:„D # eveloper“}]} Проблема 1: После преобразования, что в CSV ее созданием пустой строки между каждым 2 рядом. Как ** Имя почты Des ** [] Бо # б [email protected] Unknown [] Martin mar#[email protected] D # eveloper Проблема 2: В моем коде я использую эй, но мне нужно, чтобы использовать его динамически. fobj = открыт ( "D: /Users/shamiks/PycharmProjects/jsonSamle.txt") jsonCont = fobj.read () для печати (jsonCont) fobj.close () employee_parsed = JSON. грузы (jsonCont) emp_data = employee_parsed [ «работник»] Как мы не будем знать структуру или содержание до предстоящего JSON файла. Проблема 3: Мне также нужно, чтобы удалить все символы # из файла CSV.
Sham
1

голосов
2

ответ
75

Просмотры

Создание JSON / текстовый файл на основе содержимого файла CSV

Я пытаюсь Переберите в CSV-файл (около 91 миллионов записей) и создать новый JSON / текстовый файл с помощью Python Dict на основе записей выборки ниже (Файл отсортирован по ид, типа). идентификатор, тип, значение 4678367,1,1001 4678367,2,1007 4678367,2,1008 5678945,1,9000 5678945,2,8000 Код должен добавить значения, когда он соответствует идентификатор и тип еще создать новую запись, как показано ниже. Я хотел бы, чтобы написать это в целевой файл Как я могу сделать это в Python? { 'ID': 4678367, 'ID_1': [1001], 'ID_2': [1007,1008]}, { 'ID': 5678945, 'ID_1': [9000], 'ID_2': [8000]}
Vivekan S
1

голосов
0

ответ
437

Просмотры

Powershell скрипт для импорта, сглаживаются и объединить несколько XML-файлов и экспортировать как CSV

привет все вы храбрые кодеры, у меня есть большое количество XML-файлов, которые мне нужно уплощенных, объединены и преобразованы в CSV-файлы для импорта в Excel, где данные будут отображенной на другой набор данных, который будет использоваться в большей миграции данных. Мне удалось создать сценарий, который собирает все XML-файлы в данной папке и выводит первые элементы уровня на новую строку в собранном CSV-файл. Проблема в том, структура файлов XML (которые не могут быть изменены). Вот образец XML: 0021AC7A0000000000081FDC Xxxxxxxx 2016-04-07 0021AC7A00000000000823B1 TMF Исследование AC-064A201-Lupus Заключительный документ ACL 2016-04-19 05: 28: 06.708 01.05.03 very_long_document_title1. PDF very_long_document_title1.pdf PDF приложения / PDF very_long_document_title1.docx very_long_document_title1.docx word_docx приложение / vnd.openxmlformats-officedocument.wordprocessingml.document Вы заметите, что некоторые из последних элементов происходит дважды в некоторых файлах там может быть еще больше. Так что мне нужно знать, как сгладить эту иерархию XML и предоставляют дочерние-элементы с уникальными именами, предпочтительно в виде [parent.element] [итерационный] [childelement], принимая во внимание, что число детей-элементов может варьироваться и она должна быть экспортирована в CSV. Уникальные заголовки для childitems необходимо сделать отображение правильно в Excel позже. Вот код, который я написал до сих пор, что я довольно неуклюже пытаюсь сделать, это обрабатывать элементы 1-го уровня первыми, а затем элементы «tmf_document» после этого, присоединиться к ним, а затем экспортировать в CSV. Но по какой-то причине я не могу понять, что я получаю ошибку: «Add-участник: Невозможно добавить элемент с именем [в основном все элементы], потому что элемент с таким именем уже существует.» Код: # Получить все XML-файлы $ RootElement = "tmf_study_item" $ documentElement = "tmf_document" $ midElement = "multi_index_data" $ пункты = Get-ChildItem * .xml $ scriptPath = $ (Get-Location) .Path $ scriptFolder = раскол -path $ (Get-Location) .Path -Leaf $ файл_вывода = $ scriptPath + "\" + $ scriptFolder + "CSV" MemberType -match "Property"} | Выбрать -ExpandProperty Название $ KeysToAdd = $ T2Keys |? {$ T1Keys -notcontains $ _} $ KeysToAdd |% {$ Collection | Добавить Член $ _ ""}} $ Коллекция + = $ DocOutput } $ Collection # Добавлять в CSV-файл $ Коллекции | Экспорт-Csv -path $ OUTPUTFILE -Delimiter ";" -NoTypeInformation -Append # Создание CSV для каждого файла # $ Коллекция | Экспорт-Csv -path $ baseNameoutputFile -Delimiter ";" -NoTypeInformation} Я надеюсь, что некоторые из вас может дать мне несколько советов о том, как решить эту проблему. -NoTypeInformation -Append # Создание CSV для каждого файла # $ Коллекция | Экспорт-Csv -path $ baseNameoutputFile -Delimiter ";" -NoTypeInformation} Я надеюсь, что некоторые из вас может дать мне несколько советов о том, как решить эту проблему. -NoTypeInformation -Append # Создание CSV для каждого файла # $ Коллекция | Экспорт-Csv -path $ baseNameoutputFile -Delimiter ";" -NoTypeInformation} Я надеюсь, что некоторые из вас может дать мне несколько советов о том, как решить эту проблему.
Rasmus Eilertsen
1

голосов
1

ответ
555

Просмотры

Sales Order Экспорт CSV в Magento2

Как мы можем добавить новый столбец с пользовательскими данными в «Order Экспорт CSV», как размер скидки, код купона, Свойства товара?
Vishal Sanwar
1

голосов
1

ответ
2.2k

Просмотры

How to draw a graph by using CSV file in Python

Я должен нарисовать график, используя цены на акции в яблочном или SAMSUNG данные в CVS-файле с использованием данных Python language.SAMSUNG и APPLE, сохраненные в отдельных файлах в той же папке. Желаемая интерфейс как эта Желаемой интерфейс Если пользователь выбирает Samsung или APPLE в флажке. (Только один можно выбрать одновременно и рисовать, если я выбираю Apple, то Samsung отключен) Затем нарисуйте график между датой против закрывающей и открывающего выбранных типов из получать подходящий файл CVS в этом folder.In Привожу массив данных apple.csv, это выглядит следующим образом любит и данные Samsung установить также, как это; Имя, дата, Open, High, Low, Close, Volume AAPL, 2 января 2017,115.82,115.82,115.82,115.82,0 AAPL, 3 января 2017,115.8,116.33,114.76,116.15,28781800 AAPL, 4 января 2017,115.85 , 116.51,115.75,116.02,21118100 AAPL, 5 января 2017,115.92,116.86,115.81,116.61,22193500 Я новее этот язык, так что любой, пожалуйста, дайте какие-либо указания, чтобы сделать это task.So пожалуйста, если кто-нибудь может дать правильный путь наведения, чтобы сделать это, это будет большим подспорьем для меня. Код я попробовал: (Но это не правильно, потому что я хочу, чтобы выбранный столбец рисовать Дату против закрывающего и открывающего) импорта matplotlib.pyplot как рх импорта CSV dateOfx = [] open_price_y1 = [] close_price_y2 = [] с открытым ( 'E: \\ Проект \ \\ Набор данных apple.csv', 'R'), как csvfile: Plots = csv.reader (csvfile, разделитель = '') для столбца участков: dateOfx.append (INT (столбец [ 2])) open_price_y1.append (интермедиат (столбец [3])) close_price_y2.append (интермедиат (столбец [5])) plt.plot (dateOfx, open_price_y1, close_price_y2, метка = 'Загруженный из файла!') plt.xlabel ( 'Date') plt.ylabel ( 'Open') plt.ylabel ( 'Закрыть') plt.title ( 'Рынок акций Цена') plt.legend () plt.show () Поэтому, пожалуйста, если кто-нибудь может дать правильный путь наведения, чтобы сделать это, это будет большим подспорьем для меня. Код я попробовал: (Но это не правильно, потому что я хочу, чтобы выбранный столбец рисовать Дату против закрывающего и открывающего) импорта matplotlib.pyplot как рх импорта CSV dateOfx = [] open_price_y1 = [] close_price_y2 = [] с открытым ( 'E: \\ Проект \ \\ Набор данных apple.csv', 'R'), как csvfile: Plots = csv.reader (csvfile, разделитель = '') для столбца участков: dateOfx.append (INT (столбец [ 2])) open_price_y1.append (интермедиат (столбец [3])) close_price_y2.append (интермедиат (столбец [5])) plt.plot (dateOfx, open_price_y1, close_price_y2, метка = 'Загруженный из файла!') plt.xlabel ( 'Date') plt.ylabel ( 'Open') plt.ylabel ( 'Закрыть') plt.title ( 'Рынок акций Цена') plt.legend () plt.show () Поэтому, пожалуйста, если кто-нибудь может дать правильный путь наведения, чтобы сделать это, это будет большим подспорьем для меня. Код я попробовал: (Но это не правильно, потому что я хочу, чтобы выбранный столбец рисовать Дату против закрывающего и открывающего) импорта matplotlib.pyplot как рх импорта CSV dateOfx = [] open_price_y1 = [] close_price_y2 = [] с открытым ( 'E: \\ Проект \ \\ Набор данных apple.csv', 'R'), как csvfile: Plots = csv.reader (csvfile, разделитель = '') для столбца участков: dateOfx.append (INT (столбец [ 2])) open_price_y1.append (интермедиат (столбец [3])) close_price_y2.append (интермедиат (столбец [5])) plt.plot (dateOfx, open_price_y1, close_price_y2, метка = 'Загруженный из файла!') plt.xlabel ( 'Date') plt.ylabel ( 'Open') plt.ylabel ( 'Закрыть') plt.title ( 'Рынок акций Цена') plt.legend () plt.show ()
Shani
1

голосов
0

ответ
37

Просмотры

Создание нескольких файлов XLSX с диаграммами Python

Я ищу массивный питон коды для создания XLSX файлов из моих данных в формате CSV. Мне нужен файл для Cliente и там мне нужна вся информация о Clienteas я показать вам вниз. Дело в том, мне нужно разделить данные CSV в Cliente и запустить свой код для каждого Cliente Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1000 1,78 1 ID 02/12/2017 1200 1.20 В другом файле: Cliente Fecha Subastas Importe_a_pagar_a_medio 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4. 86 У меня есть код для простого XLSX рисовать свои графики: импорт панд, как PD DF = pd.read_csv ( '') ac.csv subastadas = список (DF [ 'Subastadas']) дохода = список (ДФ [ 'Доход' ]) Fecha = список (ДФ [ 'Fecha']) импорт xlsxwriter Учебное пособие = xlsxwriter.Workbook ( 'chart_line.xlsx') = рабочий лист workbook.add_worksheet () # Добавление данных рабочего листа, предназначенных для печати. данных = subastadas worksheet.write_column ( 'A1', Fecha) worksheet.write_column ( 'В1', данные) worksheet.write_column ( '1', доход) # Создать новый объект диаграммы. Диаграмма = workbook.add_chart ({ 'типа': 'строка'}) chart2 = workbook.add_chart ({ 'типа': 'строка'}) # Добавление серии к диаграмме. chart.add_series ({ 'значения': '= Лист1 $ B $ 1: $ B $ 3', 'категории': '= Лист1 $ A $ 1: $ A $ 3', 'строка': {» цвет ': 'красный'}}) chart2.add_series ({' значения: '= Лист1 $ C $ 1: $ C $ 3', 'категории': '= Лист1 $ A $ 1: $ A $ 3', «линия «: {» цвет ': „синий“}}) # Вставить диаграмму в рабочий лист. worksheet.insert_chart ( 'F1', диаграмма) worksheet.insert_chart ( 'F15', chart2) workbook.close () CSV данные: Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1 000 1,78 1 ID 02/12/2017 1200 1.20 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4,86 значения ': '= Лист1 $ C $ 1: $ C $ 3', 'категории': '= Лист1 $ A $ 1: $ A $ 3', 'строка': {' цвет ': 'синий'}}) # Вставить диаграммы в рабочий лист. worksheet.insert_chart ( 'F1', диаграмма) worksheet.insert_chart ( 'F15', chart2) workbook.close () CSV данные: Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1 000 1,78 1 ID 02/12/2017 1200 1.20 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4,86 значения ': '= Лист1 $ C $ 1: $ C $ 3', 'категории': '= Лист1 $ A $ 1: $ A $ 3', 'строка': {' цвет ': 'синий'}}) # Вставить диаграммы в рабочий лист. worksheet.insert_chart ( 'F1', диаграмма) worksheet.insert_chart ( 'F15', chart2) workbook.close () CSV данные: Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1 000 1,78 1 ID 02/12/2017 1200 1.20 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4,86 линия «: {» цвет ': „синий“}}) # Вставить диаграмму в рабочий лист. worksheet.insert_chart ( 'F1', диаграмма) worksheet.insert_chart ( 'F15', chart2) workbook.close () CSV данные: Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1 000 1,78 1 ID 02/12/2017 1200 1.20 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4,86 линия «: {» цвет ': „синий“}}) # Вставить диаграмму в рабочий лист. worksheet.insert_chart ( 'F1', диаграмма) worksheet.insert_chart ( 'F15', chart2) workbook.close () CSV данные: Cliente Fecha Subastas Importe_a_pagar_a_medio 0 ID 01/12/2017 1 000 1,78 1 ID 02/12/2017 1200 1.20 2 объявления 01/12/2017 600 4,46 3 800 объявлений 02/12/2017 4,66 4 Объявление 03/12/2017 1000 4,86
Martin Bouhier
1

голосов
1

ответ
32

Просмотры

how to resolve csv output file error?

CSV входного файла: c1, c2, c3, c4, c5, c6 16,28-Sep-17,9700,291.8,291.8,9964.4 17,28-Sep-17,9700,186.3,186.3,9872.6 18,28-сентябрь -17,9700,166.6,166.6,9871.5 24,28-Sep-17,9800,227.5,227.5,9952.2 25,28-Sep-17,9800,202.55,202.55,9916.2 Код: от itertools импорта zip_longest из коллекций импорта defaultdict импорт CSV модель = defaultdict (список) с открытым ( '') outpuop.csv как f_input: csv_input = csv.reader заголовок (f_input) = следующий (csv_input) для строки в csv_input: # Преобразовать c3 с6 в поплавках строку [2: 6] = карта (с плавающей точкой, строки [2: 6]), если строка [2]> строка [5]: если строка [4] = 0: N = строка [4] - (строка [2] - строка [5 ]) модель [строка [2]] добавить (ТВ) остальное:. ТВ = строка [3] - (строка [2] - строка [5]) модель [строка [2]] добавить (TV) остальное:.. тв = строка [4] модель [строка [2]] добавление (тв) = столбцы, упорядоченный (models.keys ()) = + данные [[INT (колонка)] [.: формат "{.2f}" (v ) для V в моделях [колонка]] для столбца в столбцах] с открытым ( 'out1.csv', '') Wb как f_output: csv_output = csv.writer (f_output) csv_output.writerows (zip_longest (* данные, fillvalue =» «)) Когда я компилирую у меня есть это: TypeError: а байт-подобный объект необходим, а не„ул“Как решить это?TypeError: а байт-подобный объект необходим, а не «ул» Как решить это?TypeError: а байт-подобный объект необходим, а не «ул» Как решить это?
Bill
1

голосов
0

ответ
278

Просмотры

Python Fast / High Performance Logging

Я ищу способ для регистрации событий из обычая «смарт-устройства» с рядом миллисекунду точности. Смарт-устройство представляет собой пользовательская плата работает на чипе TI-MSP430, но я уверен, что это непочтительное. Ниже приведен пример моих текущих данных, 2018: 01: 11: 14: 06: 06,872957, х, х, х, х, 2018: 01: 11: 14: 06: 07,384358, х, х, х, х, 2018 : 01: 11: 14: 06: 07,898173, х, х, х, х, 2018: 01: 11: 14: 06: 08,410788, х, х, х, х, 2018: 01: 11: 14: 06: 08,922617 , х, х, х, х, 2018: 01: 11: 14: 06: 09,437256, х, х, х, х, 2018: 01: 11: 14: 06: 09,950356, х, х, х, х, ( х промывается данные) проблема заключается в том, что мой сценарий регистрации, скелетным (и, к сожалению, с закрытым исходным кодом) Python скрипт начнет ломаться через некоторое время. После перерывов сценария, он никогда не восстанавливается. Я предполагаю, что у меня есть вопрос буферного какое-то. Пример выпуска: 2018: 01: 11: 14: 31: 33,385387, х, х, 2018: 01: 11: 14: 31: 33,543131, х, х, х, 2018: 01: 11: 14: 31: 33.738989, х, х, х, 2018: 01: 11: 14: 31: 33,856379, х, х, х, х, скрипт получает данные через последовательный порт и помещает его в CSV-файл с текущим временем и некоторые расчеты. (Я не использую библиотеку CSV) Должен ли я использовать встроенный регистратор? Если да, то как я могу получить его на печать в формате CSV? Если нет, то как я должен поступить? Я просто нужны последовательные, непрерывные данные, чтобы продолжить. Я ценю вашу помощь и вход.
Tyler Fricks
1

голосов
1

ответ
606

Просмотры

Как вы загрузите CSV файл в Google Таблицах с помощью Google листов ИПН с C #?

У меня есть метод, который тянет CSV с веб-сайта с помощью restsharp. класс ScheduledBilling {общественная строка Report () {вар клиент = новый RestClient ( "http://example.com"); client.CookieContainer = новый System.Net.CookieContainer (); client.Authenticator = новый SimpleAuthenticator ( "Имя пользователя", "ххх", "пароль", "ххх"); запрос вар = новый RestRequest ( "/ Логин", Method.POST); IRestResponse ответ = client.Execute (запрос); вар ScheduledBilling = client.DownloadData (новый RestRequest ( "/ файл)); вар CSV = System.Text.Encoding.Default.GetString (ScheduledBilling); возвращение (CSV);}} В основном, я использую смесь учебники и Quickstart, так что я могу ввести информацию в лист Google. //ScheduledCRMBilling.Report (); ScheduledCRMBilling OBJ = новый ScheduledCRMBilling (); Строка CSV = obj.Report (); Строка spreadsheetId2 = "ххх"; Строка range1 = "Запланированные Billing"; ValueRange valueRange1 = новый ValueRange (); valueRange1.MajorDimension = "РЯДЫ"; // "Строки"; // КОЛОННЫ вар oblist1 = новый список () {}; CSV SpreadsheetsResource.ValuesResource.UpdateRequest Update1 = service.Spreadsheets.Values.Update (valueRange1, spreadsheetId2, диапазон1); update1.ValueInputOption = SpreadsheetsResource.ValuesResource.UpdateRequest.ValueInputOptionEnum.RAW; UpdateValuesResponse результат1 = update1.Execute (); Console.WriteLine ( "сделано!"); Я установить диапазон, чтобы быть весь лист (по расписанию фактуры). То, что происходит в том, что первая ячейка заполняется всей информацией в формате CSV, а не как если бы вы импортировать CSV в Google листов. Как я должен поступить? Я чувствую, как будто я должен передать переменную CSV в виде списка строк, которые будут размещать строки в каждой ячейке. Но тогда я не знаю, как он будет знать, когда пришло время для новой линии.
edwrdkm
0

голосов
1

ответ
33

Просмотры

Distinguish between “” and empty value when reading csv file using python

CSV-файл содержит значения, такие как "", "AB, ABC" ,, "ABC". Обратите внимание, что я имею в виду пустое значение ,, как в неизвестное значение. Это отличается от «», где значение не было установлено еще. Я подхожу эти два значения по-разному. Мне нужен способ, чтобы прочитать «» и пустое значение ,, и различие между ними. Я отображение данных в числа таких, что «» отображаются на 0, а ,, сопоставляются NaN. Обратите внимание, я не имея при разборе вопроса и поля, такие как «AB, ABC» в настоящее время разбирается очень хорошо с запятой в качестве разделителя. Вопрос питон читает «» и пустое значение ,, как пустая строка, такие как «». И эти два значения не одинаковы и не должны быть сгруппированы в пустую строку. Не только это, но мне также нужно написать файл CSV, например, что «» пишется как «» и не ,, и NaN должно быть записано в виде ,, (пустое значение). Я посмотрел в Csv диалекты, такие как двойные кавычки, escapechar, QuoteChar, цитируя. Это не то, что я хочу. Это все случаи, когда появляется разделитель в пределах, т.е. данных «абы, а» и, как я уже говорил, разбор со специальными символами не является проблема. Я не хочу использовать панда. Единственное, что я могу думать о регулярных выражений? Но это накладные расходы, если у меня есть миллионы строк для обработки. Поведение я хочу это: а = «\» \ «» (или это может быть = «» или = «абы, а»), если (а == «\» \ «»): отображение [0] = 0 Элифа (а == ""): отображение [0] = np.nan еще: отображение [0] = а мой читатель CSV выглядит следующим образом: импорт CSV е = открыт (путь_к_файл, 'г') = CSVReader CSV. читатель (е) для строки в CSVReader: печать (строка) Я хочу выше поведение при чтении файлов CSV, хотя. В настоящее время только два значения считывается: «» (пустая строка) или «аб, а». Я хочу 3 различных значений для чтения. «» Пустая строка «„“» строки с двойными кавычками, и текущей строка «абы, а»
Naz
1

голосов
0

ответ
355

Просмотры

Спарк Csv указать символ новой строки

Я пишу фрейм данных с использованием библиотеки искры CSV. Я использую искру 1.6. Мне было интересно, если есть способ, чтобы указать символ новой строки. Обычно, я думаю, что это \ п. Или, если нет, то есть хорошее решение для изменения новой строки? view.coalesce (1) .write.format ( "com.databricks.spark.csv"). Опция ( "заголовок", "истина"). Опция ( "разделитель", "\ 036"). Опция ( "кодировка" ., "ASCII") сохранить (местоположение);
Defcon
1

голосов
3

ответ
675

Просмотры

Как извлечь город, штат из колонки в панд dataframe?

Я работаю на необработанных данных и пытается извлечь город, штат из столбца адреса. Адрес ххх Ричардсон, TX YYY Plano, TX XXYY Уайли, TX WO-65758 ZZZ Waxahachie, TX WO-999786 Я использовал разделив последние два элемента в столбце, но как идти о данных, как 3-й и 4-й строке в огромном наборе данных содержащий 30k записи?
Aruna J
1

голосов
1

ответ
58

Просмотры

Преобразование XML в CSV для AD Импорт (Использование Wildcard)

Я пытаюсь преобразовать XML из API вызова в формате CSV, который может быть использован для создания пользователей AD. До сих пор он в основном работает, на стоимость мобильного телефона, за исключением. Вот что XML выглядит. SomeName SomeFirstName SomeNickName SomeMiddleName SomeLastName Женский 1901-01-01 [email protected] 555-555-5555 Вот мой Powershell [XML] $ XML = Get-Content 'C: \ page1.xml' $ xml.SelectNodes ( '// facstaff ') | Select-Object @ {п = 'имя'; е = {$ _ first_name + "" + $ _ last_name}..}, @ {П = 'SAM';. Е. = {$ _ First_name + $ _ last_name} }, {@ п = 'мобильный'; е = {$ _ mobile_phone.}}, {@ п = 'пароль'; е = { "TestPassword1"}} | Export-CSV 'C: \ page1.csv' -NoType -Delimiter ';' Import-Module ActiveDirectory $ Пользователи = Импорт-Csv -Delimiter ";" -Path «C: \ стр.1. mobile_phone *}}, но это не сработало. Любой совет? Спасибо!
Alan Jeppson
1

голосов
1

ответ
302

Просмотры

Opencsv логики в parcing

Я использую библиотеку openCsv потому что это очень простой в использовании, и я получил все необходимые функциональные. Но теперь мне нужно использовать некоторые пользовательские логики, кроме проверки правильных типов, колонн и других обычных вещей. У меня есть CSV-файл с колоннами ПгвЬЫата, secondName, firstSalary, lastSalary и другими. Я хочу, чтобы проверить, что firstDayOfWork меньше lastDayOfWork в процессе parcing и добавить новый csvException, если оно ложно. Так что, если теперь я parcing файл ПгвЬЫат, secondName, firstSalary, lastSalary Джон Доу, testtext, 5000 Алиса, 100, 5000 Гарри Смит, 400, 200 и обработка списка csvExcpetions я могу получить результаты parcing как номер ошибок: 2 линия 1: Преобразование testtext в java.lang.Integer не удалось. Строка 2: Поле «secondName» является обязательным, но не было представлено никакого значения. Я хочу что-то вроде Количество ошибок: 3 линии 1: Превращение testtext в java.lang.Integer не удалось. Строка 2: Поле «secondName» является обязательным, но не было представлено никакого значения. Строка 3: firstSalary не может быть больше, чем lastSalary Или какой-то обычай parcing логики, как проверка, если какое-то поле поймать регулярное выражение, два поля, в то же время больше, чем 0, и т.д. смогу, во-первых PARCE и преобразовать его в бобах и второго цикла проверить мой бобы этих правил, но есть может быть много линий, и это займет больше времени, так что, я хочу, чтобы проверить его в одном процессе. Могу ли я получить его от openCsv? И если да, то как? Если нет, то, что еще один инструмент, который я не могу использовать? Спасибо. два поля, в то же время больше, чем 0, и т.д. Я могу, во-первых PARCE и преобразовать его в бобах и второго цикла проверить мои бобы по этим правилам, но есть может быть много линий, и это займет больше времени, так что, Я хочу, чтобы проверить его в одном процессе. Могу ли я получить его от openCsv? И если да, то как? Если нет, то, что еще один инструмент, который я не могу использовать? Спасибо. два поля, в то же время больше, чем 0, и т.д. Я могу, во-первых PARCE и преобразовать его в бобах и второго цикла проверить мои бобы по этим правилам, но есть может быть много линий, и это займет больше времени, так что, Я хочу, чтобы проверить его в одном процессе. Могу ли я получить его от openCsv? И если да, то как? Если нет, то, что еще один инструмент, который я не могу использовать? Спасибо.
Poppo Pippo
1

голосов
0

ответ
131

Просмотры

Использование readr читать TSV, где некоторые поля имеют кавычки. После записи обратно, есть дополнительный набор цитат

write_csv не имеет параметра кавычки, так что я не могу ничего установить там. Как я прочитал в этом файле и записать его обратно, так что дополнительный набор цитат не получить выписал?
divide_by_zero
1

голосов
1

ответ
148

Просмотры

How to edit .csv files in C

I'm new at programming, and I need help in my C project. I have to search for a city, confirm it exists in the first file (city.csv), and take its id from there. Then I have to match that id with the corresponding one in the second file (meteo.csv), and then edit its weather information, that is in that second file. However, I don't know how I can take the city id from the first file, and then how to edit the second file after obtaining all the new weather informations. Here is the code: void addInfo() { FILE * fp; char id_city[100]; char city[100]; char humidity[100]; char temp_max[100]; char temp_min[100]; char pressure[100]; char date[100]; printf("Name of the city: "); scanf("%s", city); // I think it's here that I have to write the code for take the city's id from the first file if (id_city != NULL) { printf("Maximun temperature: "); scanf("%s", temp_max); printf("Minimun temperature: "); scanf("%s", temp_min); printf("Humidity: "); scanf("%s", humidity); printf("Pressure: "); scanf("%s", pressure); printf("Date, in the format YYYY-MM-DD: "); scanf("%s", date); fp = fopen ("meteo.csv", "a"); fprintf(fp, "%s, %s, %s, %s, %s \n", temp_max, temp_min, humidity, pressure, date); //I think there's something wrong here too... fclose(fp); printf("Information edited successfully"); } The file city.csv has 152 lines and 4 columns: (id_city,city,county,district) such as (56,Lisbon,Lisbon,Lisbon) The file meteo.csv has 152 lines and 7 columns: (id_meteo_city,id_city,temp_max,temp_min,humidity,pressure,date) such as (56,56,14,5,62,1025,2018-02-12)
Jessijow Black
1

голосов
4

ответ
787

Просмотры

Which is the best way to handle big CSV files (Java, MySQL, MongoDB)

Мне нужно обрабатывать большой файл CSV с около 750,000 строк данных. Каждая строка имеет около 1000 + символов и ~ 50 столбцов, и я действительно не уверен, что это лучший (или по крайней мере хорошо и достаточно), способ обработки и управления такого рода данных. Мне нужно сделать следующие шаги: Сравните значения двух Colomns и записать результат в новый столбец (это, кажется, легко) Сравнение значений двух линий и делать вещи. (Например, удалить, если одно значение дублируется.) Сравнение значений двух различных файлов. Моя проблема в том, что это делается в настоящее время с PHP и / или Excel и пределы почти превышены + это занимает много времени, чтобы обработать и не будет уже невозможно, когда файлы получить еще больше. У меня есть 3 разные возможности в виду: Использование MySQL, создать таблицу (или два) и выполните сравнения, добавления или удаления части. (Я не очень знаком с SQL и должен изучить его, и это должно быть сделано автоматически, поэтому существует проблема, что вы не можете создавать таблицы CSV файлов) Использование Java создание объектов в ArrayList или связные списки и к «вещам» (для операций было бы легко, но обработка большого объема данных, которые, вероятно, будут проблемы) (возможно ли это спасти много файлов в Java или это сбой / есть хороший инструмент и т.д.?) Используйте Clojure вместе с MongoDB, чтобы добавить файлы CSV для MongoDB и чтения файлов с помощью Монго. (Имя дополнительные возможности, если у вас есть еще одна идея ..) В общем, я не являюсь профессионалом в любой из них, но хотел бы решить эту проблему / получить некоторые подсказки или даже ваше мнение. заранее спасибо Также это должно быть сделано автоматически, поэтому существует проблема, что вы не можете создавать таблицы CSV файлов) Использование Java создания объектов в ArrayList или связные списки и в «материал» (для операций было бы легко, но обработка, что много данных, вероятно, будет проблема) (возможно ли это спасти много файлов в Java или это сбой / есть хороший инструмент и т.д.?) Используйте Clojure вместе с MongoDB, чтобы добавить файлы из CSV в MongoDB и читать файлы с помощью Монго. (Имя дополнительные возможности, если у вас есть еще одна идея ..) В общем, я не являюсь профессионалом в любой из них, но хотел бы решить эту проблему / получить некоторые подсказки или даже ваше мнение. заранее спасибо Также это должно быть сделано автоматически, поэтому существует проблема, что вы не можете создавать таблицы CSV файлов) Использование Java создания объектов в ArrayList или связные списки и в «материал» (для операций было бы легко, но обработка, что много данных, вероятно, будет проблема) (возможно ли это спасти много файлов в Java или это сбой / есть хороший инструмент и т.д.?) Используйте Clojure вместе с MongoDB, чтобы добавить файлы из CSV в MongoDB и читать файлы с помощью Монго. (Имя дополнительные возможности, если у вас есть еще одна идея ..) В общем, я не являюсь профессионалом в любой из них, но хотел бы решить эту проблему / получить некоторые подсказки или даже ваше мнение. заранее спасибо (Для операций было бы легко, но обработка большого объема данных, которые, вероятно, будут проблемы) (Возможно ли это спасти много файлов в Java или это сбой / есть хороший инструмент и т.д.?) Используйте Clojure вместе с MongoDB, чтобы добавить файлы CSV для MongoDB и чтения файлов с помощью Монго. (Имя дополнительные возможности, если у вас есть еще одна идея ..) В общем, я не являюсь профессионалом в любой из них, но хотел бы решить эту проблему / получить некоторые подсказки или даже ваше мнение. заранее спасибо (Для операций было бы легко, но обработка большого объема данных, которые, вероятно, будут проблемы) (Возможно ли это спасти много файлов в Java или это сбой / есть хороший инструмент и т.д.?) Используйте Clojure вместе с MongoDB, чтобы добавить файлы CSV для MongoDB и чтения файлов с помощью Монго. (Имя дополнительные возможности, если у вас есть еще одна идея ..) В общем, я не являюсь профессионалом в любой из них, но хотел бы решить эту проблему / получить некоторые подсказки или даже ваше мнение. заранее спасибо
NICK_WANTED

Просмотр дополнительных вопросов