提交 3791decb 编写于 作者: S Stephen Hemminger 提交者: David S. Miller

pktgen: xmit logic reorganization

Do some reorganization of transmit logic path:
   * move transmit queue full idle to separate routine
   * add a cpu_relax()
   * eliminate some of the uneeded goto's
   * if queue is still stopped, go back to main thread loop.
   * don't give up transmitting if quantum is exhausted (be greedy)
Signed-off-by: NStephen Hemminger <shemminger@vyatta.com>
Signed-off-by: NDavid S. Miller <davem@davemloft.net>
上级 3bda06a3
...@@ -3339,6 +3339,18 @@ static void pktgen_rem_thread(struct pktgen_thread *t) ...@@ -3339,6 +3339,18 @@ static void pktgen_rem_thread(struct pktgen_thread *t)
mutex_unlock(&pktgen_thread_lock); mutex_unlock(&pktgen_thread_lock);
} }
static void idle(struct pktgen_dev *pkt_dev)
{
u64 idle_start = getCurUs();
if (need_resched())
schedule();
else
cpu_relax();
pkt_dev->idle_acc += getCurUs() - idle_start;
}
static void pktgen_xmit(struct pktgen_dev *pkt_dev) static void pktgen_xmit(struct pktgen_dev *pkt_dev)
{ {
struct net_device *odev = pkt_dev->odev; struct net_device *odev = pkt_dev->odev;
...@@ -3361,7 +3373,7 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev) ...@@ -3361,7 +3373,7 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev)
if (pkt_dev->delay_us == 0x7FFFFFFF) { if (pkt_dev->delay_us == 0x7FFFFFFF) {
pkt_dev->next_tx_us = getCurUs() + pkt_dev->delay_us; pkt_dev->next_tx_us = getCurUs() + pkt_dev->delay_us;
pkt_dev->next_tx_ns = pkt_dev->delay_ns; pkt_dev->next_tx_ns = pkt_dev->delay_ns;
goto out; return;
} }
} }
...@@ -3373,26 +3385,14 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev) ...@@ -3373,26 +3385,14 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev)
} }
txq = netdev_get_tx_queue(odev, queue_map); txq = netdev_get_tx_queue(odev, queue_map);
if (netif_tx_queue_stopped(txq) || /* Did we saturate the queue already? */
netif_tx_queue_frozen(txq) || if (netif_tx_queue_stopped(txq) || netif_tx_queue_frozen(txq)) {
need_resched()) { /* If device is down, then all queues are permnantly frozen */
u64 idle_start = getCurUs(); if (netif_running(odev))
idle(pkt_dev);
if (!netif_running(odev)) { else
pktgen_stop_device(pkt_dev); pktgen_stop_device(pkt_dev);
goto out; return;
}
if (need_resched())
schedule();
pkt_dev->idle_acc += getCurUs() - idle_start;
if (netif_tx_queue_stopped(txq) ||
netif_tx_queue_frozen(txq)) {
pkt_dev->next_tx_us = getCurUs(); /* TODO */
pkt_dev->next_tx_ns = 0;
goto out; /* Try the next interface */
}
} }
if (pkt_dev->last_ok || !pkt_dev->skb) { if (pkt_dev->last_ok || !pkt_dev->skb) {
...@@ -3407,7 +3407,7 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev) ...@@ -3407,7 +3407,7 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev)
"allocate skb in fill_packet.\n"); "allocate skb in fill_packet.\n");
schedule(); schedule();
pkt_dev->clone_count--; /* back out increment, OOM */ pkt_dev->clone_count--; /* back out increment, OOM */
goto out; return;
} }
pkt_dev->allocated_skbs++; pkt_dev->allocated_skbs++;
pkt_dev->clone_count = 0; /* reset counter */ pkt_dev->clone_count = 0; /* reset counter */
...@@ -3419,9 +3419,9 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev) ...@@ -3419,9 +3419,9 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev)
txq = netdev_get_tx_queue(odev, queue_map); txq = netdev_get_tx_queue(odev, queue_map);
__netif_tx_lock_bh(txq); __netif_tx_lock_bh(txq);
if (!netif_tx_queue_stopped(txq) && if (unlikely(netif_tx_queue_stopped(txq) || netif_tx_queue_frozen(txq)))
!netif_tx_queue_frozen(txq)) { pkt_dev->last_ok = 0;
else {
atomic_inc(&(pkt_dev->skb->users)); atomic_inc(&(pkt_dev->skb->users));
retry_now: retry_now:
ret = (*xmit)(pkt_dev->skb, odev); ret = (*xmit)(pkt_dev->skb, odev);
...@@ -3458,13 +3458,6 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev) ...@@ -3458,13 +3458,6 @@ static void pktgen_xmit(struct pktgen_dev *pkt_dev)
pkt_dev->next_tx_ns -= 1000; pkt_dev->next_tx_ns -= 1000;
} }
} }
else { /* Retry it next time */
pkt_dev->last_ok = 0;
pkt_dev->next_tx_us = getCurUs(); /* TODO */
pkt_dev->next_tx_ns = 0;
}
__netif_tx_unlock_bh(txq); __netif_tx_unlock_bh(txq);
/* If pkt_dev->count is zero, then run forever */ /* If pkt_dev->count is zero, then run forever */
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册