endpoint.c 10 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504
  1. /*
  2. * Copyright (c) 2006-2022, RT-Thread Development Team
  3. *
  4. * SPDX-License-Identifier: Apache-2.0
  5. *
  6. * Change Logs:
  7. * Date Author Notes
  8. * 2022-08-25 GuEe-GUI first version
  9. */
  10. #include <drivers/pci_endpoint.h>
  11. #define DBG_TAG "pci.ep"
  12. #define DBG_LVL DBG_INFO
  13. #include <rtdbg.h>
  14. static rt_list_t _ep_nodes = RT_LIST_OBJECT_INIT(_ep_nodes);
  15. static RT_DEFINE_SPINLOCK(_ep_lock);
  16. rt_err_t rt_pci_ep_write_header(struct rt_pci_ep *ep, rt_uint8_t func_no,
  17. struct rt_pci_ep_header *hdr)
  18. {
  19. rt_err_t err;
  20. if (ep && ep->ops && hdr && func_no < ep->max_functions)
  21. {
  22. if (ep->ops->write_header)
  23. {
  24. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  25. err = ep->ops->write_header(ep, func_no, hdr);
  26. rt_mutex_release(&ep->lock);
  27. }
  28. else
  29. {
  30. err = -RT_ENOSYS;
  31. }
  32. }
  33. else
  34. {
  35. err = -RT_EINVAL;
  36. }
  37. return err;
  38. }
  39. rt_err_t rt_pci_ep_set_bar(struct rt_pci_ep *ep, rt_uint8_t func_no,
  40. struct rt_pci_ep_bar *bar, int bar_idx)
  41. {
  42. rt_err_t err = RT_EOK;
  43. if (ep && ep->ops && func_no < ep->max_functions && bar &&
  44. bar_idx < PCI_STD_NUM_BARS)
  45. {
  46. struct rt_pci_bus_resource *bus_bar = &bar->bus;
  47. if (bar_idx == (PCI_STD_NUM_BARS - 1) &&
  48. (bus_bar->flags & PCIM_BAR_MEM_TYPE_64))
  49. {
  50. err = -RT_EINVAL;
  51. LOG_E("%s: Set BAR[%d] can't not 64bit", ep->name, bar_idx);
  52. }
  53. if (rt_upper_32_bits(bus_bar->size) &&
  54. !(bus_bar->flags & PCIM_BAR_MEM_TYPE_64))
  55. {
  56. err = -RT_EINVAL;
  57. LOG_E("%s: Set BAR[%d] size is no support 64bit", ep->name, bar_idx);
  58. }
  59. if ((bus_bar->flags & PCIM_BAR_SPACE_IO) &&
  60. (bus_bar->flags & PCIM_BAR_IO_MASK))
  61. {
  62. err = -RT_EINVAL;
  63. LOG_E("%s: Set BAR[%d] io flags is invalid", ep->name, bar_idx);
  64. }
  65. if (!err)
  66. {
  67. if (ep->ops->set_bar)
  68. {
  69. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  70. err = ep->ops->set_bar(ep, func_no, bar, bar_idx);
  71. rt_mutex_release(&ep->lock);
  72. }
  73. else
  74. {
  75. err = -RT_ENOSYS;
  76. }
  77. }
  78. }
  79. else
  80. {
  81. err = -RT_EINVAL;
  82. }
  83. return err;
  84. }
  85. rt_err_t rt_pci_ep_clear_bar(struct rt_pci_ep *ep, rt_uint8_t func_no,
  86. struct rt_pci_ep_bar *bar, int bar_idx)
  87. {
  88. rt_err_t err;
  89. if (ep && ep->ops && func_no < ep->max_functions && bar &&
  90. bar_idx < PCI_STD_NUM_BARS)
  91. {
  92. if (ep->ops->clear_bar)
  93. {
  94. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  95. err = ep->ops->clear_bar(ep, func_no, bar, bar_idx);
  96. rt_mutex_release(&ep->lock);
  97. }
  98. else
  99. {
  100. err = -RT_ENOSYS;
  101. }
  102. }
  103. else
  104. {
  105. err = -RT_EINVAL;
  106. }
  107. return err;
  108. }
  109. rt_err_t rt_pci_ep_map_addr(struct rt_pci_ep *ep, rt_uint8_t func_no,
  110. rt_ubase_t addr, rt_uint64_t pci_addr, rt_size_t size)
  111. {
  112. rt_err_t err;
  113. if (ep && ep->ops && func_no < ep->max_functions && size)
  114. {
  115. if (ep->ops->map_addr)
  116. {
  117. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  118. err = ep->ops->map_addr(ep, func_no, addr, pci_addr, size);
  119. rt_mutex_release(&ep->lock);
  120. }
  121. else
  122. {
  123. err = -RT_ENOSYS;
  124. }
  125. }
  126. else
  127. {
  128. err = -RT_EINVAL;
  129. }
  130. return err;
  131. }
  132. rt_err_t rt_pci_ep_unmap_addr(struct rt_pci_ep *ep, rt_uint8_t func_no,
  133. rt_ubase_t addr)
  134. {
  135. rt_err_t err;
  136. if (ep && ep->ops && func_no < ep->max_functions)
  137. {
  138. if (ep->ops->unmap_addr)
  139. {
  140. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  141. err = ep->ops->unmap_addr(ep, func_no, addr);
  142. rt_mutex_release(&ep->lock);
  143. }
  144. else
  145. {
  146. err = -RT_ENOSYS;
  147. }
  148. }
  149. else
  150. {
  151. err = -RT_EINVAL;
  152. }
  153. return err;
  154. }
  155. rt_err_t rt_pci_ep_set_msi(struct rt_pci_ep *ep, rt_uint8_t func_no,
  156. unsigned irq_nr)
  157. {
  158. rt_err_t err;
  159. if (ep && ep->ops && func_no < ep->max_functions)
  160. {
  161. if (ep->ops->set_msix)
  162. {
  163. err = -RT_EINVAL;
  164. for (int log2 = 0; log2 < 5; ++log2)
  165. {
  166. if (irq_nr <= (1 << log2))
  167. {
  168. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  169. err = ep->ops->set_msi(ep, func_no, log2);
  170. rt_mutex_release(&ep->lock);
  171. }
  172. }
  173. }
  174. else
  175. {
  176. err = -RT_ENOSYS;
  177. }
  178. }
  179. else
  180. {
  181. err = -RT_EINVAL;
  182. }
  183. return err;
  184. }
  185. rt_err_t rt_pci_ep_get_msi(struct rt_pci_ep *ep, rt_uint8_t func_no,
  186. unsigned *out_irq_nr)
  187. {
  188. rt_err_t err;
  189. if (ep && ep->ops && func_no < ep->max_functions && out_irq_nr)
  190. {
  191. if (ep->ops->get_msi)
  192. {
  193. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  194. err = ep->ops->get_msi(ep, func_no, out_irq_nr);
  195. rt_mutex_release(&ep->lock);
  196. }
  197. else
  198. {
  199. err = -RT_ENOSYS;
  200. }
  201. }
  202. else
  203. {
  204. err = -RT_EINVAL;
  205. }
  206. return err;
  207. }
  208. rt_err_t rt_pci_ep_set_msix(struct rt_pci_ep *ep, rt_uint8_t func_no,
  209. unsigned irq_nr, int bar_idx, rt_off_t offset)
  210. {
  211. rt_err_t err;
  212. if (ep && ep->ops && func_no < ep->max_functions && irq_nr < 2048 &&
  213. bar_idx < PCI_STD_NUM_BARS)
  214. {
  215. if (ep->ops->set_msix)
  216. {
  217. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  218. err = ep->ops->set_msix(ep, func_no, irq_nr, bar_idx, offset);
  219. rt_mutex_release(&ep->lock);
  220. }
  221. else
  222. {
  223. err = -RT_ENOSYS;
  224. }
  225. }
  226. else
  227. {
  228. err = -RT_EINVAL;
  229. }
  230. return err;
  231. }
  232. rt_err_t rt_pci_ep_get_msix(struct rt_pci_ep *ep, rt_uint8_t func_no,
  233. unsigned *out_irq_nr)
  234. {
  235. rt_err_t err;
  236. if (ep && ep->ops && func_no < ep->max_functions && out_irq_nr)
  237. {
  238. if (ep->ops->get_msix)
  239. {
  240. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  241. err = ep->ops->get_msix(ep, func_no, out_irq_nr);
  242. rt_mutex_release(&ep->lock);
  243. }
  244. else
  245. {
  246. err = -RT_ENOSYS;
  247. }
  248. }
  249. else
  250. {
  251. err = -RT_EINVAL;
  252. }
  253. return err;
  254. }
  255. rt_err_t rt_pci_ep_raise_irq(struct rt_pci_ep *ep, rt_uint8_t func_no,
  256. enum rt_pci_ep_irq type, unsigned irq)
  257. {
  258. rt_err_t err;
  259. if (ep && ep->ops && func_no < ep->max_functions)
  260. {
  261. if (ep->ops->raise_irq)
  262. {
  263. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  264. err = ep->ops->raise_irq(ep, func_no, type, irq);
  265. rt_mutex_release(&ep->lock);
  266. }
  267. else
  268. {
  269. err = -RT_ENOSYS;
  270. }
  271. }
  272. else
  273. {
  274. err = -RT_EINVAL;
  275. }
  276. return err;
  277. }
  278. rt_err_t rt_pci_ep_start(struct rt_pci_ep *ep)
  279. {
  280. rt_err_t err;
  281. if (ep && ep->ops)
  282. {
  283. if (ep->ops->start)
  284. {
  285. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  286. err = ep->ops->start(ep);
  287. rt_mutex_release(&ep->lock);
  288. }
  289. else
  290. {
  291. err = -RT_ENOSYS;
  292. }
  293. }
  294. else
  295. {
  296. err = -RT_EINVAL;
  297. }
  298. return err;
  299. }
  300. rt_err_t rt_pci_ep_stop(struct rt_pci_ep *ep)
  301. {
  302. rt_err_t err;
  303. if (ep && ep->ops)
  304. {
  305. if (ep->ops->stop)
  306. {
  307. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  308. err = ep->ops->stop(ep);
  309. rt_mutex_release(&ep->lock);
  310. }
  311. else
  312. {
  313. err = -RT_ENOSYS;
  314. }
  315. }
  316. else
  317. {
  318. err = -RT_EINVAL;
  319. }
  320. return err;
  321. }
  322. rt_err_t rt_pci_ep_register(struct rt_pci_ep *ep)
  323. {
  324. rt_ubase_t level;
  325. if (!ep || !ep->ops)
  326. {
  327. return -RT_EINVAL;
  328. }
  329. rt_list_init(&ep->list);
  330. rt_ref_init(&ep->ref);
  331. rt_list_init(&ep->epf_nodes);
  332. rt_mutex_init(&ep->lock, ep->name, RT_IPC_FLAG_PRIO);
  333. level = rt_spin_lock_irqsave(&_ep_lock);
  334. rt_list_insert_before(&_ep_nodes, &ep->list);
  335. rt_spin_unlock_irqrestore(&_ep_lock, level);
  336. return RT_EOK;
  337. }
  338. rt_err_t rt_pci_ep_unregister(struct rt_pci_ep *ep)
  339. {
  340. rt_ubase_t level;
  341. rt_err_t err = RT_EOK;
  342. if (!ep)
  343. {
  344. return -RT_EINVAL;
  345. }
  346. level = rt_spin_lock_irqsave(&_ep_lock);
  347. if (rt_ref_read(&ep->ref) > 1)
  348. {
  349. err = -RT_EBUSY;
  350. }
  351. else
  352. {
  353. rt_list_remove(&ep->list);
  354. rt_mutex_detach(&ep->lock);
  355. }
  356. rt_spin_unlock_irqrestore(&_ep_lock, level);
  357. return err;
  358. }
  359. rt_err_t rt_pci_ep_add_epf(struct rt_pci_ep *ep, struct rt_pci_epf *epf)
  360. {
  361. rt_err_t err = RT_EOK;
  362. if (!ep || !epf || !epf->name)
  363. {
  364. return -RT_EINVAL;
  365. }
  366. if (epf->func_no > ep->max_functions - 1)
  367. {
  368. LOG_E("%s function No(%d) > %s max function No(%d - 1)",
  369. epf->name, epf->func_no, ep->name, ep->max_functions);
  370. return -RT_EINVAL;
  371. }
  372. epf->ep = ep;
  373. rt_list_init(&epf->list);
  374. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  375. if (!rt_bitmap_test_bit(ep->functions_map, epf->func_no))
  376. {
  377. rt_bitmap_set_bit(ep->functions_map, epf->func_no);
  378. rt_list_insert_before(&ep->epf_nodes, &epf->list);
  379. }
  380. else
  381. {
  382. err = -RT_EINVAL;
  383. LOG_E("%s function No(%d) is repeating", epf->name, epf->func_no);
  384. }
  385. rt_mutex_release(&ep->lock);
  386. return err;
  387. }
  388. rt_err_t rt_pci_ep_remove_epf(struct rt_pci_ep *ep, struct rt_pci_epf *epf)
  389. {
  390. if (!ep || !epf)
  391. {
  392. return -RT_EINVAL;
  393. }
  394. rt_mutex_take(&ep->lock, RT_WAITING_FOREVER);
  395. rt_bitmap_clear_bit(ep->functions_map, epf->func_no);
  396. rt_list_remove(&epf->list);
  397. rt_mutex_release(&ep->lock);
  398. return RT_EOK;
  399. }
  400. struct rt_pci_ep *rt_pci_ep_get(const char *name)
  401. {
  402. rt_ubase_t level;
  403. struct rt_pci_ep *ep = RT_NULL, *ep_tmp;
  404. level = rt_spin_lock_irqsave(&_ep_lock);
  405. rt_list_for_each_entry(ep_tmp, &_ep_nodes, list)
  406. {
  407. if (!name || !rt_strcmp(ep_tmp->name, name))
  408. {
  409. ep = ep_tmp;
  410. rt_ref_get(&ep->ref);
  411. break;
  412. }
  413. }
  414. rt_spin_unlock_irqrestore(&_ep_lock, level);
  415. return ep;
  416. }
  417. static void pci_ep_release(struct rt_ref *ref)
  418. {
  419. struct rt_pci_ep *ep = rt_container_of(ref, struct rt_pci_ep, ref);
  420. rt_pci_ep_unregister(ep);
  421. }
  422. void rt_pci_ep_put(struct rt_pci_ep *ep)
  423. {
  424. if (ep)
  425. {
  426. rt_ref_put(&ep->ref, &pci_ep_release);
  427. }
  428. }