需要懂数据的全栈工程师
------------------------
📋 岗位职责
1. 网站搭建与维护
负责公司信息门户/产业研究网站的前后端开发与维护
基于主流框架(如 React / Vue + Node.js / Python)进行页面开发与功能迭代
优化网站性能、用户体验及移动端适配
2. 数据库设计与开发
参与神经科技产业数据库的架构设计与搭建(MySQL / PostgreSQL / MongoDB 等)
负责数据采集、清洗、入库及结构化存储
编写高效的数据查询接口,支撑前端展示与分析需求
3. 信息爬取与整合
针对神经科技领域的企业、投融资、论文、政策等公开信息进行定向爬取
设计并维护爬虫脚本,确保数据采集的稳定性与合规性
对多源信息进行去重、分类与标签化处理
4. 产业研究支持
协助整理神经科技产业链图谱、企业库、投融资事件等基础数据
参与制作可视化数据看板与定期行业简报
支持团队完成特定方向的桌面研究与数据分析
🎯 任职要求
1. 基础要求
计算机、软件工程、数据科学、生物医学工程等相关专业本科及以上在读
熟悉至少一门编程语言(Python / JavaScript / Java / Go 等)
了解前端基础技术栈(HTML / CSS / JavaScript)或后端框架(Flask / Django / Express 等)
熟悉 SQL,了解数据库基本概念(表设计、索引、关联查询等)
2. 加分项
有爬虫开发经验(Scrapy / Playwright / Selenium / requests 等)
了解 NoSQL 数据库(MongoDB / Redis / Elasticsearch 等)
有数据可视化经验(ECharts / D3.js / Plotly / Tableau 等)
对神经科学、脑机接口、AI 医疗等领域有基础认知或浓厚兴趣
有 Git 协作经验,熟悉 Linux 基本操作
有完整的个人项目或开源贡献经历
4. 软性要求
自驱力强,能独立解决问题,也能主动同步进度
对数据敏感,注重细节,有基本的代码规范意识
良好的信息检索与英文文献阅读能力(神经科技领域大量信息源为英文)
每周至少保证 3-4 天出勤,实习期 3 个月以上优先
---------------------
需要懂数据的全栈工程师