heziq
    @linuxer:挂入到multi thread或者说per cpu workqueue上的指定的work,其callback是不会在一个cpu上并发执行(也就是说在多个cpu上可以并发执行)。 如你所说,挂入multi thread上的work的并发引起的同步问题,需要用户自己解决了,不像taskelet那样,同一个tasklet 绝对不会并发。
    linuxer
    @heziq:如果CMWQ的代码让你眼花缭乱,那么不如先看看旧workqueue上的并发。 1、挂入队列。对于旧的workqueue而言,有两种场景: (1)single thread workqueue (2)multi thread workqueue或者说per cpu thread workqueue 无论哪一种场景,当调用queue_work的时候,cpu已经选定。对于single thread workqueue,选择singlethread_cpu定义的那个cpu(一般是first possible cpu),对于per cpu thread workqueue,选择当前的cpu,也就是说,哪个cpu上执行queue_work,就挂入哪一个cpu对应的cpu_workqueue_struct。对于WORK_STRUCT_PENDING标记,你可以再看看queue_work的代码,代码中,test_and_set_bit是原子操作,因此,只能有一个thread进入queue work区域,也就是说,无论有多少个thread(可能来自多个cpu上的多种上下文)调用queue_work,结果只有一个work挂入某个cpu上的work list,变成pending状态。这里还有一个小的同步细节:wq_per_cpu访问了per cpu变量,而get_cpu/put_cpu分别disable preempt和enable preempt,确保了在访问Per-CPU变量的时候,current thread不能调度到其他CPU上去。 需要注意的是,WORK_STRUCT_PENDING可以保证pending状态的work只有一个,但是,如果一旦该work进入执行状态会怎样呢? 2、执行work。在worker thread中,处理work的大概流程是: (1)从该worker thread对应的work list中摘下一个work (2)clear pending flag (3)执行该work的callback function 如果该work进入执行状态,pending flag已经清除,因此后续queue_work可以继续将work挂入worker list。对于single thread workqueue,由于只有一个worklist,只有一个thread,虽然该thread可以被调度到多个cpu上执行,但是不可能有多个thread同时执行,因此,对于single thread workqueue,其work(不论是否是同一个work)的callback function都是不会重入的,也就是说,各个work都是严格串行化执行。对于per cpu workqueue,各个online的cpu上都有一个worker thread及其要处理的work list。因此,有可能会有多个work在多个cpu上执行。我们举一个实际的例子:假设有一个per cpu workqueue,我们称之WQ,有work A和work B可能来自driver A和driver B,Driver A和Driver B的中断触发并分别送达cpu 0和cpu1,在驱动的handler中会queue相应的work到WQ去,因此work A和work B分别在cpu 0和cpu 1上的worker thread中执行,因此work A和work B的callback function是完全并发的。如果Driver A和Driver B的中断触发并都送达了cpu 0,那么work A和work B的callback function在cpu0上worker thread是串行执行的。上面讨论了多个work实例的并发,那么指定的work,例如work A的并发是怎样的呢?其实也是类似的,如果driver A的中断始终送达cpu 0,那么work A的callback是串行执行的,如果driver A的中断可以送达多个cpu ,那么在多个cpu上,work A的callback也是可以并发执行的。 最后总结一下:挂入到multi thread或者说per cpu workqueue上的指定的work,其callback是不会在一个cpu上并发执行(也就是说在多个cpu上可以并发执行)。 CMWQ的概念是类似的,这里就不再赘述了,后面还会有文档描述。
    太古神王
    [给力]
    linux cpufreq framework(4)_cpufreq governor  发表时间:2015-08-25 14:17
    wowo
    @shoujixiaodao:过奖了,下一篇写hotplug吧,多谢关注~~~
    linux cpufreq framework(4)_cpufreq governor  发表时间:2015-08-25 12:12
    shoujixiaodao
    写的好,学习了,cpu hotplug 哈时候写一写?多谢!
    linux cpufreq framework(4)_cpufreq governor  发表时间:2015-08-25 11:09
    linuxer
    @heziq:非常好的问题,多谢!但是最近有点忙,而且你的问题不是三言两语就能回答的,稍等两天再回复你。
    heziq
    @linuxer: tasklet 通过 TASKLET_STATE_SCHED 和 TASKLET_STATE_RUN 来防止并发,threaded irq hander 也通过IRQS_ONESHOT防止并发,workequeue是通过什么手段来防止并发的呢?比如我在两个cpu上同时触发同一个workqueue,我看到一个WORK_STRUCT_PENDING 在work提交的时候使用,是不是workqueue采取与taskelet类似的方法,来防止并发,或者根本就由用户自己考虑并发?我自己先在代码中找了好久都没发现,workqueue的代码变复杂了,我有点晕。
    printk
    @wowo:oops不是很可靠阿 ,,,起码比如说VPU的时钟disable后操作VPU的寄存器,会导致内核freeze,类似与这样的error就不会产生oops。。或者 有些oops还没来得及打到屏幕上,内核就已经挂拉
    留言板  发表时间:2015-08-21 13:20
    wowo
    @paoshapaoxue:是的,没有加超链接的引用,就是没来得及写,抱歉哈
    linux cpufreq framework(1)_概述  发表时间:2015-08-20 17:37
    paoshapaoxue
    hi,wowo: 你在本文中说的 hot plut 功能可以参考文章“Linux CPU core的电源管理(4)_cpu control” 这个文章我怎么一直没找到呢,是不是还没有完成啊?
    linux cpufreq framework(1)_概述  发表时间:2015-08-20 17:15

共7893条572/790上一页 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 下一页
Copyright @ 2013-2015 蜗窝科技 All rights reserved. Powered by emlog