Для установки необходимых библиотек есть два возможных пути:
-
Устанавливать каждую библиотеку по отдельности через команду медеженера пакетов PIP - pip install. Начиная с Python 3 >= 3.4, PIP уже установлен автоматически. Если по какой-то причине его нет - https://pip.pypa.io/en/stable/installing/
-
Уставить дистрибутив Anaconda с наиболее популярными библиотеками для анализа данных - https://www.anaconda.com/distribution/ (при установке поставить "галочку" рядом с PATH)
-
Основное рабочее пространство курса - Jupyter Notebook. Установить (conda/pip): https://jupyter.org/install
-
Основное средство коммуникации курса - чат в Telegram
В какой бы сфере вам не пришлось работать, умение быстро и качественно анализировать большие объемы информации дает несомненное конкуретное преимущество.
Вот только несколько примеров профессиональных областей для которых анализ больших данных черезвычайно важен:
- Поиск (задачи ранжирования поисковой выдачи)
- Рекомендательные системы (рекомендации пользователям информации на основе их предпочтений)
- Ритейл (динамическое ценообразование, анализ покупок клиентов, управление остатками, гео-задачи на поиск оптимальных мест для открытия торговых точек)
- Банкинг (кредитный скоринг, анти-фрод, оптимизация портфеля ценных бумаг, выявление неявных связей между компаниями, оптимизация налично-денежного обращения)
- Телеком (прогноз оттока, next best action, оптимизация покрытия сети)
- Биоинформатика (предсказание структуры белка)
- и многое-многое другое :)
- 12 лекций / мастер-классов
- 6-9 заданий по мотивам занятий
- Табличные данные (Pandas)
- Матричные вычисления (Numpy)
- Визуализация данных (Matplotlib, Plotly, Dash)
- Временные ряды (Pandas)
- Гео-данные (Folium, GeoPandas, PySAL)
- Текст (NLTK, WordCloud)
- Изображения (Skimage, OpenCV, Scipy)
- Аудио (Librosa, Scipy)
- Графы (NetworkX, Graphviz)
- Био-данные (BioPython)
- Парсинг данных (BeautifulSoup, Selenium, Scrapy)
Python и данные.