<html><body><span style="font-family:Verdana; color:#000000; font-size:10pt;"><div>Yes, this is with equally increased CLUSTER_LEN 16 and 24 ... </div><div><br></div><div>Other suggestions,<br></div><div><br></div><div>Josh<br></div>
<blockquote id="replyBlockquote" webmail="1" style="border-left: 2px solid blue; margin-left: 8px; padding-left: 8px; font-size: 10pt; color: black; font-family: verdana;">
<div id="wmQuoteWrapper">
-------- Original Message --------<br>
Subject: Re: [Oisf-users] Improved PF_RING support, please test!<br>
From: Victor Julien &lt;<a href="mailto:victor@inliniac.net">victor@inliniac.net</a>&gt;<br>
Date: Wed, March 09, 2011 11:45 am<br>
To: <a href="mailto:josh@securemind.org">josh@securemind.org</a><br>
Cc: <a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a><br>
<br>
Is this with the increased cluster len?<br>
<br>
>From earlier conversation:<br>
<br>
"<br>
This value is hardset in kernel/linux/pf_ring.h<br>
#define CLUSTER_LEN 8<br>
"<br>
<br>
Cheers,<br>
Victor<br>
<br>
<br>
On 03/09/2011 05:40 PM, <a href="mailto:josh@securemind.org">josh@securemind.org</a> wrote:<br>
&gt; Ok, so the patch never put the thread option into the suricata.yaml. I<br>
&gt; reapplied the patch and all was good.<br>
&gt; <br>
&gt; - Ran with 8 threads, everything worked great, CPU utilization seems<br>
&gt; much better 2Gbps of traffic and load was less then 7% across all CPU's<br>
&gt; - Ran with 16 threads, failed<br>
&gt; - Ran with 24 threads, failed<br>
&gt; <br>
&gt; --<br>
&gt; [722] 9/3/2011 -- 11:35:09 - (log-droplog.c:182) &lt;Info&gt;<br>
&gt; (LogDropLogInitCtx) -- Drop log output initialized, filename: drop.log<br>
&gt; [722] 9/3/2011 -- 11:35:09 - (source-pfring.c:167) &lt;Info&gt;<br>
&gt; (PfringLoadConfig) -- Going to use 16 PF_RING receive threads<br>
&gt; [725] 9/3/2011 -- 11:35:09 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring1) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [727] 9/3/2011 -- 11:35:09 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring3) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [728] 9/3/2011 -- 11:35:09 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring4) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [730] 9/3/2011 -- 11:35:09 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring6) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [731] 9/3/2011 -- 11:35:10 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring7) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [726] 9/3/2011 -- 11:35:10 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring2) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [729] 9/3/2011 -- 11:35:10 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring5) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:344) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream "max_sessions": 262144<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:356) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream "prealloc_sessions": 32768<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:366) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream "memcap": 33554432<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:373) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream "midstream" session pickups: disabled<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:381) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream "async_oneside": disabled<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:390) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- <a href="http://stream.reassembly">stream.reassembly</a> &lt;<a href="http://stream.reassembly&gt">http://stream.reassembly&gt</a>;<br>
&gt; "memcap": 67108864<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:410) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- <a href="http://stream.reassembly">stream.reassembly</a> &lt;<a href="http://stream.reassembly&gt">http://stream.reassembly&gt</a>;<br>
&gt; "depth": 1048576<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (stream-tcp.c:421) &lt;Info&gt;<br>
&gt; (StreamTcpInitConfig) -- stream."inline": disabled<br>
&gt; [734] 9/3/2011 -- 11:35:10 - (source-pfring.c:309) &lt;Info&gt;<br>
&gt; (ReceivePfringThreadInit) -- (RecvPfring1) Using PF_RING v.4.6.0,<br>
&gt; interface eth0, cluster-id 99<br>
&gt; [732] 9/3/2011 -- 11:35:10 - (source-pfring.c:303) &lt;Error&gt;<br>
&gt; (ReceivePfringThreadInit) -- [ERRCODE:<br>
&gt; SC_ERR_PF_RING_SET_CLUSTER_FAILED(37)] - pfring_set_cluster returned -1<br>
&gt; for cluster-id: 99<br>
&gt; [733] 9/3/2011 -- 11:35:10 - (source-pfring.c:303) &lt;Error&gt;<br>
&gt; (ReceivePfringThreadInit) -- [ERRCODE:<br>
&gt; SC_ERR_PF_RING_SET_CLUSTER_FAILED(37)] - pfring_set_cluster returned -1<br>
&gt; for cluster-id: 99<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (tm-threads.c:1475) &lt;Error&gt;<br>
&gt; (TmThreadWaitOnThreadInit) -- [ERRCODE: SC_ERR_THREAD_INIT(49)] - thread<br>
&gt; "RecvPfring8" closed on initialization.<br>
&gt; [722] 9/3/2011 -- 11:35:10 - (suricata.c:1245) &lt;Error&gt; (main) --<br>
&gt; [ERRCODE: SC_ERR_INITIALIZATION(45)] - Engine initialization failed,<br>
&gt; aborting...<br>
&gt; <br>
&gt; --<br>
&gt; Josh<br>
&gt; <br>
&gt;     -------- Original Message --------<br>
&gt;     Subject: Re: [Oisf-users] Improved PF_RING support, please test!<br>
&gt;     From: Victor Julien &lt;<a href="mailto:victor@inliniac.net">victor@inliniac.net</a> &lt;<a href="mailto:victor@inliniac.net">mailto:victor@inliniac.net</a>&gt;&gt;<br>
&gt;     Date: Wed, March 09, 2011 10:47 am<br>
&gt;     To: <a href="mailto:oisf-users@openinfosecfoundation.org">oisf-users@openinfosecfoundation.org</a><br>
&gt;     &lt;<a href="mailto:oisf-users@openinfosecfoundation.org">mailto:oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt; <br>
&gt;     Josh, are you setting the <a href="http://pfring.threads">pfring.threads</a> &lt;<a href="http://pfring.threads&gt">http://pfring.threads&gt</a>;<br>
&gt;     option in your suricata.yaml?<br>
&gt;     It appears you have it either not set or set to 1. Set it like this:<br>
&gt; <br>
&gt;     # PF_RING configuration. for use with native PF_RING support<br>
&gt;     # for more info see <a href="http://www.ntop.org/PF_RING.html">http://www.ntop.org/PF_RING.html</a><br>
&gt;     pfring:<br>
&gt;     # Number of receive threads (&gt;1 will enable experimental flow pinned<br>
&gt;     # runmode)<br>
&gt;     threads: 8<br>
&gt; <br>
&gt;     # Default interface we will listen on.<br>
&gt;     interface: eth0<br>
&gt; <br>
&gt;     # Default clusterid. PF_RING will load balance packets based on flow.<br>
&gt;     # All threads/processes that will participate need to have the same<br>
&gt;     # clusterid.<br>
&gt;     cluster-id: 99<br>
&gt; <br>
&gt;     # Default PF_RING cluster type. PF_RING can load balance per flow or<br>
&gt;     per hash.<br>
&gt;     # This is only supported in versions of PF_RING &gt; 4.1.1.<br>
&gt;     cluster-type: cluster_round_robin<br>
&gt; <br>
&gt;     If I set it to 8 pf_ring reports 8 rings...<br>
&gt; <br>
&gt;     Cheers,<br>
&gt;     Victor<br>
&gt; <br>
&gt; <br>
&gt;     On 03/09/2011 12:06 AM, <a href="mailto:jwhite@everisinc.com">jwhite@everisinc.com</a><br>
&gt;     &lt;<a href="mailto:jwhite@everisinc.com">mailto:jwhite@everisinc.com</a>&gt; wrote:<br>
&gt;     &gt; I've set it to 24, recompiled and it seems to be running ok, (as in<br>
&gt;     it's<br>
&gt;     &gt; handling 2Gbps worth of packets) but I'm unable to get the number of<br>
&gt;     &gt; rings to report as anything but 1. Have I missed somthing or is trully<br>
&gt;     &gt; not working correctly. I've run it based on on flow and as packet...<br>
&gt;     &gt; still no go.<br>
&gt;     &gt;<br>
&gt;     &gt; EV-SVR-006:~$ cat /proc/net/pf_ring/info<br>
&gt;     &gt; PF_RING Version : 4.6.0 ($Revision: exported$)<br>
&gt;     &gt; Ring slots : 32768<br>
&gt;     &gt; Slot version : 12<br>
&gt;     &gt; Capture TX : No [RX only]<br>
&gt;     &gt; IP Defragment : No<br>
&gt;     &gt; Transparent mode : Yes (mode 0)<br>
&gt;     &gt; Total rings : 1<br>
&gt;     &gt; Total plugins : 0<br>
&gt;     &gt;<br>
&gt;     &gt; - josh<br>
&gt;     &gt;<br>
&gt;     &gt; ---<br>
&gt;     &gt;<br>
&gt;     &gt; Date: 3/8/2011 -- 16:52:58 (uptime: 0d, 00h 03m 21s)<br>
&gt;     &gt; -------------------------------------------------------------------<br>
&gt;     &gt; Counter | TM Name | Value<br>
&gt;     &gt; -------------------------------------------------------------------<br>
&gt;     &gt; <a href="http://decoder.pkts">decoder.pkts</a> &lt;<a href="http://decoder.pkts&gt">http://decoder.pkts&gt</a>; &lt;<a href="http://decoder.pkts">http://decoder.pkts</a> &gt;; |<br>
&gt;     &gt; Decode1 | 16416387<br>
&gt;     &gt; <a href="http://decoder.bytes">decoder.bytes</a> &lt;<a href="http://decoder.bytes&gt">http://decoder.bytes&gt</a>; &lt;<a href="http://decoder.bytes">http://decoder.bytes</a> &gt;; |<br>
&gt;     &gt; Decode1 | 988040217<br>
&gt;     &gt; decoder.ipv4 | Decode1 | 16461043<br>
&gt;     &gt; decoder.ipv6 | Decode1 | 700<br>
&gt;     &gt; <a href="http://decoder.ethernet">decoder.ethernet</a> &lt;<a href="http://decoder.ethernet&gt">http://decoder.ethernet&gt</a>; &lt;<a href="http://decoder.ethernet">http://decoder.ethernet</a><br>
&gt;     &gt;; |<br>
&gt;     &gt; Decode1 | 16406387<br>
&gt;     &gt; decoder.raw | Decode1 | 0<br>
&gt;     &gt; <a href="http://decoder.sll">decoder.sll</a> &lt;<a href="http://decoder.sll&gt">http://decoder.sll&gt</a>; &lt;<a href="http://decoder.sll">http://decoder.sll</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; <a href="http://decoder.tcp">decoder.tcp</a> &lt;<a href="http://decoder.tcp&gt">http://decoder.tcp&gt</a>; &lt;<a href="http://decoder.tcp">http://decoder.tcp</a> &gt;; |<br>
&gt;     &gt; Decode1 | 16406097<br>
&gt;     &gt; decoder.udp | Decode1 | 1130<br>
&gt;     &gt; decoder.icmpv4 | Decode1 | 3<br>
&gt;     &gt; decoder.icmpv6 | Decode1 | 0<br>
&gt;     &gt; decoder.ppp | Decode1 | 0<br>
&gt;     &gt; decoder.pppoe | Decode1 | 0<br>
&gt;     &gt; <a href="http://decoder.gre">decoder.gre</a> &lt;<a href="http://decoder.gre&gt">http://decoder.gre&gt</a>; &lt;<a href="http://decoder.gre">http://decoder.gre</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; decoder.vlan | Decode1 | 0<br>
&gt;     &gt; decoder.avg_pkt_size | Decode1 | 60.012753<br>
&gt;     &gt; <a href="http://decoder.max_pkt_size">decoder.max_pkt_size</a> &lt;<a href="http://decoder.max_pkt_size&gt">http://decoder.max_pkt_size&gt</a>;<br>
&gt;     &lt;<a href="http://decoder.max_pkt_size">http://decoder.max_pkt_size</a> &gt;; |<br>
&gt;     &gt; Decode1 | 382<br>
&gt;     &gt; <a href="http://defrag.ipv4.fragments">defrag.ipv4.fragments</a> &lt;<a href="http://defrag.ipv4.fragments&gt">http://defrag.ipv4.fragments&gt</a>;<br>
&gt;     &lt;<a href="http://defrag.ipv4.fragments">http://defrag.ipv4.fragments</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; <a href="http://defrag.ipv4.reassembled">defrag.ipv4.reassembled</a> &lt;<a href="http://defrag.ipv4.reassembled&gt">http://defrag.ipv4.reassembled&gt</a>;<br>
&gt;     &lt;<a href="http://defrag.ipv4.reassembled">http://defrag.ipv4.reassembled</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; defrag.ipv4.timeouts | Decode1 | 0<br>
&gt;     &gt; <a href="http://defrag.ipv6.fragments">defrag.ipv6.fragments</a> &lt;<a href="http://defrag.ipv6.fragments&gt">http://defrag.ipv6.fragments&gt</a>;<br>
&gt;     &lt;<a href="http://defrag.ipv6.fragments">http://defrag.ipv6.fragments</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; <a href="http://defrag.ipv6.reassembled">defrag.ipv6.reassembled</a> &lt;<a href="http://defrag.ipv6.reassembled&gt">http://defrag.ipv6.reassembled&gt</a>;<br>
&gt;     &lt;<a href="http://defrag.ipv6.reassembled">http://defrag.ipv6.reassembled</a> &gt;; |<br>
&gt;     &gt; Decode1 | 0<br>
&gt;     &gt; defrag.ipv6.timeouts | Decode1 | 0<br>
&gt;     &gt; <a href="http://tcp.sessions">tcp.sessions</a> &lt;<a href="http://tcp.sessions&gt">http://tcp.sessions&gt</a>; &lt;<a href="http://tcp.sessions">http://tcp.sessions</a> &gt;; |<br>
&gt;     &gt; Stream1 | 844100<br>
&gt;     &gt; tcp.ssn_memcap_drop | Stream1 | 0<br>
&gt;     &gt; <a href="http://tcp.pseudo">tcp.pseudo</a> &lt;<a href="http://tcp.pseudo&gt">http://tcp.pseudo&gt</a>; &lt;<a href="http://tcp.pseudo">http://tcp.pseudo</a> &gt;; |<br>
&gt;     &gt; Stream1 | 0<br>
&gt;     &gt; <a href="http://tcp.segment_memcap_drop">tcp.segment_memcap_drop</a> &lt;<a href="http://tcp.segment_memcap_drop&gt">http://tcp.segment_memcap_drop&gt</a>;<br>
&gt;     &lt;<a href="http://tcp.segment_memcap_drop">http://tcp.segment_memcap_drop</a> &gt;; |<br>
&gt;     &gt; Stream1 | 0<br>
&gt;     &gt; <a href="http://tcp.stream_depth_reached">tcp.stream_depth_reached</a> &lt;<a href="http://tcp.stream_depth_reached&gt">http://tcp.stream_depth_reached&gt</a>;<br>
&gt;     &lt;<a href="http://tcp.stream_depth_reached">http://tcp.stream_depth_reached</a> &gt;; |<br>
&gt;     &gt; Stream1 | 0<br>
&gt;     &gt; <a href="http://detect.alert">detect.alert</a> &lt;<a href="http://detect.alert&gt">http://detect.alert&gt</a>; &lt;<a href="http://detect.alert">http://detect.alert</a> &gt;; |<br>
&gt;     &gt; Detect | 24768<br>
&gt;     &gt;<br>
&gt;     &gt; - Josh<br>
&gt;     &gt;<br>
&gt;     &gt; On Tuesday, March 08, 2011 04:25:04 am Victor Julien wrote:<br>
&gt;     &gt; Thanks Luca, I guess we'll find out soon enough if ppl run into perf<br>
&gt;     &gt; issues... I think we have results for 16 and 24 soon.<br>
&gt;     &gt;<br>
&gt;     &gt; Cheers,<br>
&gt;     &gt; Victor<br>
&gt;     &gt;<br>
&gt;     &gt; On 03/08/2011 08:42 AM, Luca Deri wrote:<br>
&gt;     &gt;&gt; Victor<br>
&gt;     &gt;&gt; this is just a define you can increase. However note that clusters<br>
&gt;     were<br>
&gt;     &gt;&gt; designed to handle a few apps, thus if you increase the value to a<br>
&gt;     much<br>
&gt;     &gt;&gt; higher value, we better review the code and see if it is still<br>
&gt;     efficient<br>
&gt;     &gt;&gt; enough for your purposes<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; Regards Luca<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; On Mar 7, 2011, at 9:49 PM, Victor Julien wrote:<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; Thanks for figuring that out Will!<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; Luca, can we have a higher (or no) limit? I keep hearing stories<br>
&gt;     of ppl<br>
&gt;     &gt;&gt; with 24 cores :)<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; Cheers,<br>
&gt;     &gt;&gt; Victor<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; On 03/07/2011 07:28 PM, Will Metcalf wrote:<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; It seems that the maximum is 8 threads here. Not sure if that<br>
&gt;     can be<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; set higher if the number of slots in pfring are increased. Anyone<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; try that?<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt; This value is hardset in kernel/linux/pf_ring.h<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt; #define CLUSTER_LEN 8<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt; Modify accordingly, maybe Luca would be kind enough to increase the<br>
&gt;     &gt;&gt;&gt;&gt;&gt; default value?<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt; Regards,<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt; Will<br>
&gt;     &gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; On Mon, Mar 7, 2011 at 11:47 AM, Victor Julien<br>
&gt;     &gt;&gt; &lt;<a href="mailto:victor@inliniac.net">victor@inliniac.net</a> &lt;<a href="mailto:victor@inliniac.net">mailto:victor@inliniac.net</a>&gt;<br>
&gt;     &lt;<a href="mailto:victor@inliniac.net">mailto:victor@inliniac.net</a>&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; wrote:<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; On 03/07/2011 06:15 PM, Chris Wakelin wrote:<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; On 28/02/11 20:23, Victor Julien wrote:<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Hey guys,<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I know a couple of you are running PF_RING in a high speed<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; environment. The attached patch means to improve it's<br>
&gt;     performance.<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; It adds a new option called "pfring.threads" that controls the<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; number of reader threads the pfring code uses. I've tested<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; (lightly) with 1, 4 and 8 which all worked fine. There are some<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; more improvements, including the removal of one memcpy per<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; packet...<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; OK, giving it a go with 4 threads ...<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; It seems that the maximum is 8 threads here. Not sure if that<br>
&gt;     can be<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; set higher if the number of slots in pfring are increased. Anyone<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; try that?<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Cheers,<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Victor<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Oisf-users mailing list<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:Oisf-users@openinfosecfoundation.org">Oisf-users@openinfosecfoundation.org</a><br>
&gt;     &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     &gt;&gt; &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     &gt;&gt;&gt;&gt;&gt;&gt; <a href="http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users">http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
&gt;     &gt;<br>
&gt;     &gt;&gt; ---<br>
&gt;     &gt;&gt; Keep looking, don't settle - Steve Jobs<br>
&gt;     &gt;<br>
&gt;     _______________________________________________<br>
&gt;     Oisf-users mailing list<br>
&gt;     <a href="mailto:Oisf-users@openinfosecfoundation.org">Oisf-users@openinfosecfoundation.org</a><br>
&gt;     &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     &gt; &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     <a href="http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users">http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
&gt; <br>
&gt;     &gt; _______________________________________________<br>
&gt;     &gt; Oisf-users mailing list<br>
&gt;     &gt; <a href="mailto:Oisf-users@openinfosecfoundation.org">Oisf-users@openinfosecfoundation.org</a><br>
&gt;     &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     &gt; <a href="http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users">http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
&gt; <br>
&gt; <br>
&gt;     -- <br>
&gt;     ---------------------------------------------<br>
&gt;     Victor Julien<br>
&gt;     <a href="http://www.inliniac.net">http://www.inliniac.net</a>/<br>
&gt;     PGP: <a href="http://www.inliniac.net/victorjulien.asc">http://www.inliniac.net/victorjulien.asc</a><br>
&gt;     ---------------------------------------------<br>
&gt; <br>
&gt;     _______________________________________________<br>
&gt;     Oisf-users mailing list<br>
&gt;     <a href="mailto:Oisf-users@openinfosecfoundation.org">Oisf-users@openinfosecfoundation.org</a><br>
&gt;     &lt;<a href="mailto:Oisf-users@openinfosecfoundation.org">mailto:Oisf-users@openinfosecfoundation.org</a>&gt;<br>
&gt;     <a href="http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users">http://lists.openinfosecfoundation.org/mailman/listinfo/oisf-users</a><br>
<br>
<br>
-- <br>
---------------------------------------------<br>
Victor Julien<br>
<a href="http://www.inliniac.net">http://www.inliniac.net</a>/<br>
PGP: <a href="http://www.inliniac.net/victorjulien.asc">http://www.inliniac.net/victorjulien.asc</a><br>
---------------------------------------------<br>
<br>

</div>
</blockquote></span></body></html>