virtio_gpu.c 26 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713714715716717718719720721722723724725726727728729730731732733734735736737738739740741742743744745746747748749750751752753754755756757758759760761762763764765766767768769770771772773774775776777778779780781782783784785786787788789790791792793794795796797798799800801802803804805806807808809810811812813814815816817818819820821822823824825826827828829830831832833834835836837838839840841842843844845846847848849850851852853854855856857858859860861862863864865866867868869870871872873874875876877878879880881882883884885886887888889890891892893894895896897898899900901902903904905906907908909910911912913914915916917918919920921922923924925926927928929930931932933934935
  1. /*
  2. * Copyright (c) 2006-2023, RT-Thread Development Team
  3. *
  4. * SPDX-License-Identifier: Apache-2.0
  5. *
  6. * Change Logs:
  7. * Date Author Notes
  8. * 2021-11-11 GuEe-GUI the first version
  9. */
  10. #include <rthw.h>
  11. #include <rtthread.h>
  12. #include <cpuport.h>
  13. #include <rtdevice.h>
  14. #ifdef RT_USING_VIRTIO_GPU
  15. #include <virtio_gpu.h>
  16. static struct virtio_gpu_device *_primary_virtio_gpu_dev = RT_NULL;
  17. static rt_ubase_t _pixel_format_convert(rt_ubase_t format, rt_bool_t to_virtio_gpu_format)
  18. {
  19. rt_ubase_t ret = 0;
  20. if (to_virtio_gpu_format)
  21. {
  22. switch (format)
  23. {
  24. case RTGRAPHIC_PIXEL_FORMAT_RGB888:
  25. ret = VIRTIO_GPU_FORMAT_R8G8B8X8_UNORM;
  26. break;
  27. case RTGRAPHIC_PIXEL_FORMAT_ARGB888:
  28. ret = VIRTIO_GPU_FORMAT_A8R8G8B8_UNORM;
  29. break;
  30. case RTGRAPHIC_PIXEL_FORMAT_ABGR888:
  31. ret = VIRTIO_GPU_FORMAT_A8B8G8R8_UNORM;
  32. break;
  33. default:
  34. break;
  35. }
  36. }
  37. else
  38. {
  39. switch (format)
  40. {
  41. case VIRTIO_GPU_FORMAT_R8G8B8X8_UNORM:
  42. ret = RTGRAPHIC_PIXEL_FORMAT_RGB888;
  43. break;
  44. case VIRTIO_GPU_FORMAT_A8R8G8B8_UNORM:
  45. ret = RTGRAPHIC_PIXEL_FORMAT_ARGB888;
  46. break;
  47. case VIRTIO_GPU_FORMAT_A8B8G8R8_UNORM:
  48. ret = RTGRAPHIC_PIXEL_FORMAT_ABGR888;
  49. break;
  50. default:
  51. break;
  52. }
  53. }
  54. return ret;
  55. }
  56. static void virtio_gpu_ctrl_send_command(struct virtio_gpu_device *virtio_gpu_dev,
  57. const void *cmd, rt_size_t cmd_len, void *res, rt_size_t res_len)
  58. {
  59. rt_uint16_t idx[2];
  60. void *addr = &virtio_gpu_dev->gpu_request;
  61. void *ret_res = ((rt_uint8_t *)addr + cmd_len);
  62. struct virtio_device *virtio_dev = &virtio_gpu_dev->virtio_dev;
  63. #ifdef RT_USING_SMP
  64. rt_base_t level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  65. #endif
  66. while (virtio_alloc_desc_chain(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, 2, idx))
  67. {
  68. #ifdef RT_USING_SMP
  69. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  70. #endif
  71. rt_thread_yield();
  72. #ifdef RT_USING_SMP
  73. level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  74. #endif
  75. }
  76. rt_memcpy(&virtio_gpu_dev->gpu_request, cmd, cmd_len);
  77. virtio_fill_desc(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, idx[0],
  78. VIRTIO_VA2PA(addr), cmd_len, VIRTQ_DESC_F_NEXT, idx[1]);
  79. virtio_fill_desc(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, idx[1],
  80. VIRTIO_VA2PA(addr) + cmd_len, res_len, VIRTQ_DESC_F_WRITE, 0);
  81. rt_memset(ret_res, 0, res_len);
  82. virtio_gpu_dev->info[idx[0]].ctrl_valid = RT_TRUE;
  83. virtio_submit_chain(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, idx[0]);
  84. virtio_queue_notify(virtio_dev, VIRTIO_GPU_QUEUE_CTRL);
  85. while (virtio_gpu_dev->info[idx[0]].ctrl_valid)
  86. {
  87. #ifdef RT_USING_SMP
  88. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  89. #endif
  90. rt_thread_yield();
  91. #ifdef RT_USING_SMP
  92. level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  93. #endif
  94. }
  95. virtio_free_desc_chain(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, idx[0]);
  96. rt_memcpy(res, ret_res, res_len);
  97. #ifdef RT_USING_SMP
  98. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  99. #endif
  100. }
  101. static void virtio_gpu_cursor_send_command(struct virtio_gpu_device *virtio_gpu_dev,
  102. const void *cmd, rt_size_t cmd_len)
  103. {
  104. rt_uint16_t id;
  105. void *addr;
  106. struct virtio_device *virtio_dev = &virtio_gpu_dev->virtio_dev;
  107. #ifdef RT_USING_SMP
  108. rt_base_t level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  109. #endif
  110. while ((id = virtio_alloc_desc(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR)) == VIRTQ_INVALID_DESC_ID)
  111. {
  112. #ifdef RT_USING_SMP
  113. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  114. #endif
  115. rt_thread_yield();
  116. #ifdef RT_USING_SMP
  117. level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  118. #endif
  119. }
  120. addr = &virtio_gpu_dev->info[id].cursor_cmd;
  121. virtio_gpu_dev->info[id].cursor_valid = RT_TRUE;
  122. rt_memcpy(addr, cmd, cmd_len);
  123. virtio_fill_desc(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR, id, VIRTIO_VA2PA(addr), cmd_len, 0, 0);
  124. virtio_submit_chain(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR, id);
  125. virtio_queue_notify(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR);
  126. while (virtio_gpu_dev->info[id].cursor_valid)
  127. {
  128. #ifdef RT_USING_SMP
  129. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  130. #endif
  131. rt_thread_yield();
  132. #ifdef RT_USING_SMP
  133. level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  134. #endif
  135. }
  136. virtio_free_desc(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR, id);
  137. #ifdef RT_USING_SMP
  138. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  139. #endif
  140. }
  141. static rt_err_t virtio_gpu_create_2d_resource(struct virtio_gpu_device *virtio_gpu_dev, enum virtio_gpu_formats format,
  142. rt_uint32_t *resource_id, rt_uint32_t width, rt_uint32_t height)
  143. {
  144. struct virtio_gpu_ctrl_hdr res;
  145. struct virtio_gpu_resource_create_2d req;
  146. *resource_id = ++virtio_gpu_dev->next_resource_id;
  147. req.hdr.type = VIRTIO_GPU_CMD_RESOURCE_CREATE_2D;
  148. req.resource_id = *resource_id;
  149. req.format = format;
  150. req.width = width;
  151. req.height = height;
  152. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  153. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  154. {
  155. return RT_EOK;
  156. }
  157. return -RT_ERROR;
  158. }
  159. static rt_err_t virtio_gpu_unref_resource(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t resource_id)
  160. {
  161. struct virtio_gpu_ctrl_hdr res;
  162. struct virtio_gpu_resource_unref req;
  163. rt_memset(&req, 0, sizeof(req));
  164. req.hdr.type = VIRTIO_GPU_CMD_RESOURCE_UNREF;
  165. req.resource_id = resource_id;
  166. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  167. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  168. {
  169. return RT_EOK;
  170. }
  171. return -RT_ERROR;
  172. }
  173. static rt_err_t virtio_gpu_attach_backing_resource(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t resource_id,
  174. void *buffer, rt_size_t size)
  175. {
  176. struct virtio_gpu_ctrl_hdr res;
  177. struct
  178. {
  179. struct virtio_gpu_resource_attach_backing req;
  180. struct virtio_gpu_mem_entry mem;
  181. } req;
  182. rt_memset(&req, 0, sizeof(req));
  183. req.req.hdr.type = VIRTIO_GPU_CMD_RESOURCE_ATTACH_BACKING;
  184. req.req.resource_id = resource_id;
  185. req.req.nr_entries = 1;
  186. req.mem.addr = VIRTIO_VA2PA(buffer);
  187. req.mem.length = size;
  188. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  189. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  190. {
  191. return RT_EOK;
  192. }
  193. return -RT_ERROR;
  194. }
  195. static rt_err_t virtio_gpu_set_scanout(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t scanout_id,
  196. rt_uint32_t resource_id, rt_uint32_t width, rt_uint32_t height)
  197. {
  198. struct virtio_gpu_ctrl_hdr res;
  199. struct virtio_gpu_set_scanout req;
  200. rt_memset(&req, 0, sizeof(req));
  201. req.hdr.type = VIRTIO_GPU_CMD_SET_SCANOUT;
  202. req.r.x = 0;
  203. req.r.y = 0;
  204. req.r.width = width;
  205. req.r.height = height;
  206. req.scanout_id = scanout_id;
  207. req.resource_id = resource_id;
  208. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  209. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  210. {
  211. return RT_EOK;
  212. }
  213. return -RT_ERROR;
  214. }
  215. static rt_err_t virtio_gpu_flush_resource(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t resource_id,
  216. rt_uint32_t x, rt_uint32_t y, rt_uint32_t width, rt_uint32_t height)
  217. {
  218. struct virtio_gpu_ctrl_hdr res;
  219. struct virtio_gpu_resource_flush req;
  220. rt_memset(&req, 0, sizeof(req));
  221. req.hdr.type = VIRTIO_GPU_CMD_RESOURCE_FLUSH;
  222. req.r.x = x;
  223. req.r.y = y;
  224. req.r.width = width;
  225. req.r.height = height;
  226. req.resource_id = resource_id;
  227. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  228. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  229. {
  230. return RT_EOK;
  231. }
  232. return -RT_ERROR;
  233. }
  234. static rt_err_t virtio_gpu_transfer_to_host_2d(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t resource_id,
  235. rt_uint32_t x, rt_uint32_t y, rt_uint32_t width, rt_uint32_t height, rt_uint32_t offset)
  236. {
  237. struct virtio_gpu_ctrl_hdr res;
  238. struct virtio_gpu_transfer_to_host_2d req;
  239. rt_memset(&req, 0, sizeof(req));
  240. req.hdr.type = VIRTIO_GPU_CMD_TRANSFER_TO_HOST_2D;
  241. req.r.x = x;
  242. req.r.y = y;
  243. req.r.width = width;
  244. req.r.height = height;
  245. req.offset = offset;
  246. req.resource_id = resource_id;
  247. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &res, sizeof(res));
  248. if (res.type == VIRTIO_GPU_RESP_OK_NODATA)
  249. {
  250. return RT_EOK;
  251. }
  252. return -RT_ERROR;
  253. }
  254. static rt_err_t virtio_gpu_gfx_flush_2d(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t resource_id,
  255. rt_uint32_t x, rt_uint32_t y, rt_uint32_t width, rt_uint32_t height)
  256. {
  257. rt_err_t status = virtio_gpu_transfer_to_host_2d(virtio_gpu_dev, resource_id, x, y, width, height, 0);
  258. if (status == RT_EOK)
  259. {
  260. status = virtio_gpu_flush_resource(virtio_gpu_dev, resource_id, x, y, width, height);
  261. }
  262. return status;
  263. }
  264. static rt_err_t virtio_gpu_update_cursor(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t scanout_id,
  265. rt_uint32_t resource_id, rt_uint32_t hot_x, rt_uint32_t hot_y)
  266. {
  267. struct virtio_gpu_update_cursor req;
  268. rt_memset(&req, 0, sizeof(req));
  269. req.hdr.type = VIRTIO_GPU_CMD_UPDATE_CURSOR;
  270. req.pos.scanout_id = scanout_id;
  271. req.resource_id = resource_id;
  272. req.hot_x = hot_x;
  273. req.hot_y = hot_y;
  274. virtio_gpu_cursor_send_command(virtio_gpu_dev, &req, sizeof(req));
  275. return RT_EOK;
  276. }
  277. static rt_err_t virtio_gpu_cursor_move(struct virtio_gpu_device *virtio_gpu_dev, rt_uint32_t scanout_id,
  278. rt_uint32_t resource_id, rt_uint32_t x, rt_uint32_t y)
  279. {
  280. struct virtio_gpu_update_cursor req;
  281. rt_memset(&req, 0, sizeof(req));
  282. req.hdr.type = VIRTIO_GPU_CMD_MOVE_CURSOR;
  283. req.pos.scanout_id = scanout_id;
  284. req.pos.x = x;
  285. req.pos.y = y;
  286. req.resource_id = resource_id;
  287. virtio_gpu_cursor_send_command(virtio_gpu_dev, &req, sizeof(req));
  288. return RT_EOK;
  289. }
  290. static rt_err_t virtio_gpu_cursor_set_img(struct virtio_gpu_device *virtio_gpu_dev, void *img)
  291. {
  292. rt_err_t status;
  293. rt_memcpy(virtio_gpu_dev->cursor_img, img, VIRTIO_GPU_CURSOR_IMG_SIZE);
  294. status = virtio_gpu_attach_backing_resource(virtio_gpu_dev,
  295. virtio_gpu_dev->cursor_resource_id, virtio_gpu_dev->cursor_img, VIRTIO_GPU_CURSOR_IMG_SIZE);
  296. if (status != RT_EOK)
  297. {
  298. return status;
  299. }
  300. status = virtio_gpu_transfer_to_host_2d(virtio_gpu_dev, virtio_gpu_dev->cursor_resource_id,
  301. 0, 0, VIRTIO_GPU_CURSOR_WIDTH, VIRTIO_GPU_CURSOR_HEIGHT, 0);
  302. return status;
  303. }
  304. static rt_err_t virtio_gpu_get_display_info(struct virtio_gpu_device *virtio_gpu_dev)
  305. {
  306. int i;
  307. struct virtio_gpu_ctrl_hdr req;
  308. struct virtio_gpu_resp_display_info info;
  309. rt_memset(&req, 0, sizeof(req));
  310. req.type = VIRTIO_GPU_CMD_GET_DISPLAY_INFO;
  311. virtio_gpu_ctrl_send_command(virtio_gpu_dev, &req, sizeof(req), &info, sizeof(info));
  312. if (info.hdr.type != VIRTIO_GPU_RESP_OK_DISPLAY_INFO)
  313. {
  314. return -RT_ERROR;
  315. }
  316. for (i = 0; i < VIRTIO_GPU_MAX_SCANOUTS; ++i)
  317. {
  318. if (info.pmodes[i].enabled)
  319. {
  320. if (virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  321. {
  322. rt_memcpy(&virtio_gpu_dev->pmode, &info.pmodes[i], sizeof(virtio_gpu_dev->pmode));
  323. virtio_gpu_dev->pmode_id = i;
  324. }
  325. }
  326. }
  327. return RT_EOK;
  328. }
  329. static rt_err_t virtio_gpu_init(rt_device_t dev)
  330. {
  331. rt_err_t status;
  332. struct virtio_gpu_device *virtio_gpu_dev = (struct virtio_gpu_device *)dev;
  333. struct virtio_device *virtio_dev = &virtio_gpu_dev->virtio_dev;
  334. struct virtq *queue_ctrl, *queue_cursor;
  335. queue_ctrl = &virtio_dev->queues[VIRTIO_GPU_QUEUE_CTRL];
  336. queue_cursor = &virtio_dev->queues[VIRTIO_GPU_QUEUE_CURSOR];
  337. queue_ctrl->avail->flags = 0;
  338. queue_cursor->avail->flags = 0;
  339. status = virtio_gpu_get_display_info(virtio_gpu_dev);
  340. if (virtio_gpu_dev->pmode_id != VIRTIO_GPU_INVALID_PMODE_ID && _primary_virtio_gpu_dev == RT_NULL)
  341. {
  342. /* This device is ready */
  343. _primary_virtio_gpu_dev = virtio_gpu_dev;
  344. }
  345. return status;
  346. }
  347. static rt_ssize_t virtio_gpu_read(rt_device_t dev, rt_off_t pos, void *buffer, rt_size_t size)
  348. {
  349. struct virtio_gpu_device *virtio_gpu_dev = (struct virtio_gpu_device *)dev;
  350. if (virtio_gpu_dev->framebuffer == RT_NULL || pos + size >= virtio_gpu_dev->smem_len)
  351. {
  352. return 0;
  353. }
  354. rt_mutex_take(&virtio_gpu_dev->rw_mutex, RT_WAITING_FOREVER);
  355. rt_memcpy(buffer, (rt_uint8_t *)virtio_gpu_dev->framebuffer + pos, size);
  356. rt_mutex_release(&virtio_gpu_dev->rw_mutex);
  357. return size;
  358. }
  359. static rt_ssize_t virtio_gpu_write(rt_device_t dev, rt_off_t pos, const void *buffer, rt_size_t size)
  360. {
  361. struct virtio_gpu_device *virtio_gpu_dev = (struct virtio_gpu_device *)dev;
  362. if (virtio_gpu_dev->framebuffer == RT_NULL || pos + size >= virtio_gpu_dev->smem_len)
  363. {
  364. return 0;
  365. }
  366. rt_mutex_take(&virtio_gpu_dev->rw_mutex, RT_WAITING_FOREVER);
  367. rt_memcpy((rt_uint8_t *)virtio_gpu_dev->framebuffer + pos, buffer, size);
  368. rt_mutex_release(&virtio_gpu_dev->rw_mutex);
  369. return size;
  370. }
  371. static rt_err_t virtio_gpu_control(rt_device_t dev, int cmd, void *args)
  372. {
  373. rt_err_t status = RT_EOK;
  374. struct virtio_gpu_device *virtio_gpu_dev = (struct virtio_gpu_device *)dev;
  375. switch (cmd)
  376. {
  377. case VIRTIO_DEVICE_CTRL_GPU_SET_PRIMARY:
  378. _primary_virtio_gpu_dev = virtio_gpu_dev;
  379. return status;
  380. }
  381. if (args == RT_NULL)
  382. {
  383. return -RT_ERROR;
  384. }
  385. switch (cmd)
  386. {
  387. case RTGRAPHIC_CTRL_RECT_UPDATE:
  388. {
  389. struct rt_device_rect_info *info = (struct rt_device_rect_info *)args;
  390. if (virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  391. {
  392. status = -RT_ERROR;
  393. break;
  394. }
  395. status = virtio_gpu_gfx_flush_2d(virtio_gpu_dev, virtio_gpu_dev->display_resource_id,
  396. info->x, info->y, info->width, info->height);
  397. }
  398. break;
  399. case RTGRAPHIC_CTRL_GET_INFO:
  400. {
  401. struct rt_device_graphic_info *info = (struct rt_device_graphic_info *)args;
  402. info->pixel_format = _pixel_format_convert((rt_ubase_t)args, RT_FALSE);
  403. info->bits_per_pixel = VIRTIO_GPU_FORMAT_BPP;
  404. info->pitch = virtio_gpu_dev->pmode.r.width * VIRTIO_GPU_FORMAT_PIXEL;
  405. info->width = virtio_gpu_dev->pmode.r.width;
  406. info->height = virtio_gpu_dev->pmode.r.height;
  407. info->framebuffer = virtio_gpu_dev->framebuffer;
  408. info->smem_len = virtio_gpu_dev->smem_len;
  409. }
  410. break;
  411. case VIRTIO_DEVICE_CTRL_GPU_CREATE_2D:
  412. virtio_gpu_dev->format = _pixel_format_convert((rt_ubase_t)args, RT_TRUE);
  413. if (virtio_gpu_dev->format == 0 || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  414. {
  415. status = -RT_ERROR;
  416. break;
  417. }
  418. status = virtio_gpu_create_2d_resource(virtio_gpu_dev, virtio_gpu_dev->format,
  419. &virtio_gpu_dev->display_resource_id, virtio_gpu_dev->pmode.r.width, virtio_gpu_dev->pmode.r.height);
  420. if (status != RT_EOK)
  421. {
  422. break;
  423. }
  424. virtio_gpu_dev->smem_len =
  425. virtio_gpu_dev->pmode.r.width * virtio_gpu_dev->pmode.r.height * VIRTIO_GPU_FORMAT_PIXEL;
  426. virtio_gpu_dev->smem_len = RT_ALIGN(virtio_gpu_dev->smem_len, VIRTIO_PAGE_SIZE);
  427. virtio_gpu_dev->framebuffer = rt_malloc_align(virtio_gpu_dev->smem_len, VIRTIO_PAGE_SIZE);
  428. if (virtio_gpu_dev->framebuffer == RT_NULL)
  429. {
  430. virtio_gpu_unref_resource(virtio_gpu_dev, virtio_gpu_dev->display_resource_id);
  431. status = -RT_ENOMEM;
  432. break;
  433. }
  434. status = virtio_gpu_attach_backing_resource(virtio_gpu_dev,
  435. virtio_gpu_dev->display_resource_id, virtio_gpu_dev->framebuffer, virtio_gpu_dev->smem_len);
  436. if (status != RT_EOK)
  437. {
  438. break;
  439. }
  440. status = virtio_gpu_set_scanout(virtio_gpu_dev, virtio_gpu_dev->pmode_id, virtio_gpu_dev->display_resource_id,
  441. virtio_gpu_dev->pmode.r.width, virtio_gpu_dev->pmode.r.height);
  442. break;
  443. case VIRTIO_DEVICE_CTRL_CURSOR_SETUP:
  444. if (virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  445. {
  446. status = -RT_ERROR;
  447. break;
  448. }
  449. rt_mutex_take(&virtio_gpu_dev->ops_mutex, RT_WAITING_FOREVER);
  450. status = virtio_gpu_create_2d_resource(virtio_gpu_dev, virtio_gpu_dev->format,
  451. &virtio_gpu_dev->cursor_resource_id, VIRTIO_GPU_CURSOR_WIDTH, VIRTIO_GPU_CURSOR_HEIGHT);
  452. if (status != RT_EOK)
  453. {
  454. goto _cursor_setup_end;
  455. }
  456. status = virtio_gpu_cursor_set_img(virtio_gpu_dev, args);
  457. if (status != RT_EOK)
  458. {
  459. goto _cursor_setup_end;
  460. }
  461. virtio_gpu_dev->cursor_x = 0;
  462. virtio_gpu_dev->cursor_y = 0;
  463. status = virtio_gpu_update_cursor(virtio_gpu_dev, virtio_gpu_dev->pmode_id, virtio_gpu_dev->cursor_resource_id,
  464. virtio_gpu_dev->cursor_x, virtio_gpu_dev->cursor_y);
  465. if (status == RT_EOK)
  466. {
  467. virtio_gpu_dev->cursor_enable = RT_TRUE;
  468. }
  469. _cursor_setup_end:
  470. rt_mutex_release(&virtio_gpu_dev->ops_mutex);
  471. break;
  472. case VIRTIO_DEVICE_CTRL_CURSOR_SET_IMG:
  473. if (virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID || !virtio_gpu_dev->cursor_enable)
  474. {
  475. status = -RT_ERROR;
  476. break;
  477. }
  478. rt_mutex_take(&virtio_gpu_dev->ops_mutex, RT_WAITING_FOREVER);
  479. status = virtio_gpu_cursor_set_img(virtio_gpu_dev, args);
  480. if (status != RT_EOK)
  481. {
  482. goto _cursor_set_img_end;
  483. }
  484. status = virtio_gpu_update_cursor(virtio_gpu_dev, virtio_gpu_dev->pmode_id, virtio_gpu_dev->cursor_resource_id,
  485. virtio_gpu_dev->cursor_x, virtio_gpu_dev->cursor_y);
  486. _cursor_set_img_end:
  487. rt_mutex_release(&virtio_gpu_dev->ops_mutex);
  488. break;
  489. case VIRTIO_DEVICE_CTRL_CURSOR_MOVE:
  490. if (virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID || !virtio_gpu_dev->cursor_enable)
  491. {
  492. status = -RT_ERROR;
  493. break;
  494. }
  495. rt_mutex_take(&virtio_gpu_dev->ops_mutex, RT_WAITING_FOREVER);
  496. virtio_gpu_dev->cursor_x = ((rt_uint32_t *)args)[0];
  497. virtio_gpu_dev->cursor_y = ((rt_uint32_t *)args)[1];
  498. status = virtio_gpu_cursor_move(virtio_gpu_dev, virtio_gpu_dev->pmode_id, virtio_gpu_dev->cursor_resource_id,
  499. virtio_gpu_dev->cursor_x, virtio_gpu_dev->cursor_y);
  500. rt_mutex_release(&virtio_gpu_dev->ops_mutex);
  501. break;
  502. default:
  503. status = -RT_EINVAL;
  504. break;
  505. }
  506. return status;
  507. }
  508. #ifdef RT_USING_DEVICE_OPS
  509. const static struct rt_device_ops virtio_gpu_ops =
  510. {
  511. virtio_gpu_init,
  512. RT_NULL,
  513. RT_NULL,
  514. virtio_gpu_read,
  515. virtio_gpu_write,
  516. virtio_gpu_control
  517. };
  518. #endif
  519. static void virtio_gpu_set_pixel(const char *pixel, int x, int y)
  520. {
  521. rt_uint8_t *fb;
  522. struct virtio_gpu_device *virtio_gpu_dev = _primary_virtio_gpu_dev;
  523. if (virtio_gpu_dev == RT_NULL || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  524. {
  525. return;
  526. }
  527. fb = (rt_uint8_t *)virtio_gpu_dev->framebuffer;
  528. fb += (y * virtio_gpu_dev->pmode.r.width + x) * VIRTIO_GPU_FORMAT_PIXEL;
  529. *((rt_uint32_t *)fb) = *((rt_uint32_t *)pixel);
  530. }
  531. static void virtio_gpu_get_pixel(char *pixel, int x, int y)
  532. {
  533. rt_uint8_t *fb;
  534. struct virtio_gpu_device *virtio_gpu_dev = _primary_virtio_gpu_dev;
  535. if (virtio_gpu_dev == RT_NULL || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID)
  536. {
  537. return;
  538. }
  539. fb = (rt_uint8_t *)virtio_gpu_dev->framebuffer;
  540. *((rt_uint32_t *)pixel) = *(fb + (y * virtio_gpu_dev->pmode.r.width + x) * VIRTIO_GPU_FORMAT_PIXEL);
  541. }
  542. static void virtio_gpu_draw_hline(const char *pixel, int x1, int x2, int y)
  543. {
  544. int i;
  545. rt_uint8_t *fb;
  546. rt_uint32_t color = *((rt_uint32_t *)pixel);
  547. struct virtio_gpu_device *virtio_gpu_dev = _primary_virtio_gpu_dev;
  548. if (virtio_gpu_dev == RT_NULL || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID ||
  549. x1 < 0 || x2 < 0 || y < 0)
  550. {
  551. return;
  552. }
  553. if (x1 > x2)
  554. {
  555. x1 ^= x2;
  556. x2 ^= x1;
  557. x1 ^= x2;
  558. }
  559. fb = (rt_uint8_t *)virtio_gpu_dev->framebuffer;
  560. fb += (y * virtio_gpu_dev->pmode.r.width + x1) * VIRTIO_GPU_FORMAT_PIXEL;
  561. for (i = x1; i < x2; ++i)
  562. {
  563. *((rt_uint32_t *)fb) = color;
  564. fb += VIRTIO_GPU_FORMAT_PIXEL;
  565. }
  566. }
  567. static void virtio_gpu_draw_vline(const char *pixel, int x, int y1, int y2)
  568. {
  569. int i;
  570. rt_uint8_t *fb;
  571. rt_uint16_t pitch;
  572. rt_uint32_t color = *((rt_uint32_t *)pixel);
  573. struct virtio_gpu_device *virtio_gpu_dev = _primary_virtio_gpu_dev;
  574. if (virtio_gpu_dev == RT_NULL || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID ||
  575. x < 0 || y1 < 0 || y2 < 0)
  576. {
  577. return;
  578. }
  579. if (y1 > y2)
  580. {
  581. y1 ^= y2;
  582. y2 ^= y1;
  583. y1 ^= y2;
  584. }
  585. fb = (rt_uint8_t *)virtio_gpu_dev->framebuffer;
  586. fb += (y1 * virtio_gpu_dev->pmode.r.width + x) * VIRTIO_GPU_FORMAT_PIXEL;
  587. pitch = virtio_gpu_dev->pmode.r.width * VIRTIO_GPU_FORMAT_PIXEL;
  588. for (i = y1; i < y2; ++i)
  589. {
  590. *((rt_uint32_t *)fb) = color;
  591. fb += pitch;
  592. }
  593. }
  594. static void virtio_gpu_blit_line(const char *pixel, int x, int y, rt_size_t size)
  595. {
  596. int i;
  597. rt_uint8_t *fb;
  598. rt_uint32_t *colors = (rt_uint32_t *)pixel;
  599. struct virtio_gpu_device *virtio_gpu_dev = _primary_virtio_gpu_dev;
  600. if (virtio_gpu_dev == RT_NULL || virtio_gpu_dev->pmode_id == VIRTIO_GPU_INVALID_PMODE_ID || x < 0 || y < 0)
  601. {
  602. return;
  603. }
  604. fb = (rt_uint8_t *)virtio_gpu_dev->framebuffer;
  605. fb += (y * virtio_gpu_dev->pmode.r.width + x) * VIRTIO_GPU_FORMAT_PIXEL;
  606. for (i = 0; i < size; ++i)
  607. {
  608. *((rt_uint32_t *)fb) = *colors++;
  609. fb += VIRTIO_GPU_FORMAT_PIXEL;
  610. }
  611. }
  612. static struct rt_device_graphic_ops virtio_gpu_graphic_ops =
  613. {
  614. virtio_gpu_set_pixel,
  615. virtio_gpu_get_pixel,
  616. virtio_gpu_draw_hline,
  617. virtio_gpu_draw_vline,
  618. virtio_gpu_blit_line
  619. };
  620. static void virtio_gpu_isr(int irqno, void *param)
  621. {
  622. rt_uint16_t id;
  623. struct virtio_gpu_device *virtio_gpu_dev = (struct virtio_gpu_device *)param;
  624. struct virtio_device *virtio_dev = &virtio_gpu_dev->virtio_dev;
  625. struct virtq *queue_ctrl = &virtio_dev->queues[VIRTIO_GPU_QUEUE_CTRL];
  626. struct virtq *queue_cursor = &virtio_dev->queues[VIRTIO_GPU_QUEUE_CURSOR];
  627. #ifdef RT_USING_SMP
  628. rt_base_t level = rt_spin_lock_irqsave(&virtio_dev->spinlock);
  629. #endif
  630. virtio_interrupt_ack(virtio_dev);
  631. rt_hw_dsb();
  632. while (queue_ctrl->used_idx != queue_ctrl->used->idx)
  633. {
  634. rt_hw_dsb();
  635. id = queue_ctrl->used->ring[queue_ctrl->used_idx % queue_ctrl->num].id;
  636. virtio_gpu_dev->info[id].ctrl_valid = RT_FALSE;
  637. queue_ctrl->used_idx++;
  638. }
  639. while (queue_cursor->used_idx != queue_cursor->used->idx)
  640. {
  641. rt_hw_dsb();
  642. id = queue_cursor->used->ring[queue_cursor->used_idx % queue_cursor->num].id;
  643. virtio_gpu_dev->info[id].cursor_valid = RT_FALSE;
  644. queue_cursor->used_idx++;
  645. }
  646. #ifdef RT_USING_SMP
  647. rt_spin_unlock_irqrestore(&virtio_dev->spinlock, level);
  648. #endif
  649. }
  650. rt_err_t rt_virtio_gpu_init(rt_ubase_t *mmio_base, rt_uint32_t irq)
  651. {
  652. static int dev_no = 0;
  653. char dev_name[RT_NAME_MAX];
  654. struct virtio_device *virtio_dev;
  655. struct virtio_gpu_device *virtio_gpu_dev;
  656. virtio_gpu_dev = rt_malloc(sizeof(struct virtio_gpu_device));
  657. if (virtio_gpu_dev == RT_NULL)
  658. {
  659. goto _alloc_fail;
  660. }
  661. virtio_dev = &virtio_gpu_dev->virtio_dev;
  662. virtio_dev->irq = irq;
  663. virtio_dev->mmio_base = mmio_base;
  664. virtio_gpu_dev->pmode_id = VIRTIO_GPU_INVALID_PMODE_ID;
  665. virtio_gpu_dev->display_resource_id = 0;
  666. virtio_gpu_dev->cursor_resource_id = 0;
  667. virtio_gpu_dev->next_resource_id = 0;
  668. virtio_gpu_dev->framebuffer = RT_NULL;
  669. virtio_gpu_dev->smem_len = 0;
  670. virtio_gpu_dev->cursor_enable = RT_FALSE;
  671. #ifdef RT_USING_SMP
  672. rt_spin_lock_init(&virtio_dev->spinlock);
  673. #endif
  674. virtio_reset_device(virtio_dev);
  675. virtio_status_acknowledge_driver(virtio_dev);
  676. virtio_dev->mmio_config->driver_features = virtio_dev->mmio_config->device_features & ~(
  677. (1 << VIRTIO_F_RING_EVENT_IDX) |
  678. (1 << VIRTIO_F_RING_INDIRECT_DESC));
  679. virtio_status_driver_ok(virtio_dev);
  680. if (virtio_queues_alloc(virtio_dev, 2) != RT_EOK)
  681. {
  682. goto _alloc_fail;
  683. }
  684. if (virtio_queue_init(virtio_dev, VIRTIO_GPU_QUEUE_CTRL, VIRTIO_GPU_QUEUE_SIZE) != RT_EOK)
  685. {
  686. goto _alloc_fail;
  687. }
  688. if (virtio_queue_init(virtio_dev, VIRTIO_GPU_QUEUE_CURSOR, VIRTIO_GPU_QUEUE_SIZE) != RT_EOK)
  689. {
  690. virtio_queue_destroy(virtio_dev, VIRTIO_GPU_QUEUE_CTRL);
  691. goto _alloc_fail;
  692. }
  693. virtio_gpu_dev->parent.type = RT_Device_Class_Graphic;
  694. #ifdef RT_USING_DEVICE_OPS
  695. virtio_gpu_dev->parent.ops = &virtio_gpu_ops;
  696. #else
  697. virtio_gpu_dev->parent.init = virtio_gpu_init;
  698. virtio_gpu_dev->parent.open = RT_NULL;
  699. virtio_gpu_dev->parent.close = RT_NULL;
  700. virtio_gpu_dev->parent.read = virtio_gpu_read;
  701. virtio_gpu_dev->parent.write = virtio_gpu_write;
  702. virtio_gpu_dev->parent.control = virtio_gpu_control;
  703. #endif
  704. virtio_gpu_dev->parent.user_data = &virtio_gpu_graphic_ops;
  705. rt_snprintf(dev_name, RT_NAME_MAX, "virtio-gpu%d", dev_no++);
  706. rt_mutex_init(&virtio_gpu_dev->rw_mutex, dev_name, RT_IPC_FLAG_PRIO);
  707. rt_mutex_init(&virtio_gpu_dev->ops_mutex, dev_name, RT_IPC_FLAG_PRIO);
  708. rt_hw_interrupt_install(irq, virtio_gpu_isr, virtio_gpu_dev, dev_name);
  709. rt_hw_interrupt_umask(irq);
  710. return rt_device_register((rt_device_t)virtio_gpu_dev, dev_name, RT_DEVICE_FLAG_RDWR);
  711. _alloc_fail:
  712. if (virtio_gpu_dev != RT_NULL)
  713. {
  714. virtio_queues_free(virtio_dev);
  715. rt_free(virtio_gpu_dev);
  716. }
  717. return -RT_ENOMEM;
  718. }
  719. #endif /* RT_USING_VIRTIO_GPU */