<P>
Hi all,<BR>
<BR>
&nbsp; &nbsp; &nbsp; Though not an expert however I have something to say...<BR>
<BR>
As<BR>
Craig Partridge wrote:<BR>
&gt;<BR>
&gt; In message &lt;42BDDD74.BF9FDB92@web.de&gt;, Detlef Bosau writes:<BR>
&gt;<BR>
&gt; &gt;Basically, we´re talking about the old loss differentiation debate. If<BR>
&gt; &gt;packet loss is due to corruption, e.g. on a wireless link, there is not<BR>
&gt; &gt;mecessarily a need for the sender to decrease it´s rate. Perhaps one<BR>
&gt; &gt;could do some FEC or use robust codecs, depending on the application in<BR>
&gt; &gt;use. But I do not see a reason for a sender to decrease it´s rate<BR>
&gt; &gt;anyway.<BR>
<BR>
<BR>
<BR>
As we know packet loss (due to corruption) is significant in wireless and is mainly due to fading when their is shift from 1 AP to another . I&nbsp; think it would be better if the sender decreases the rate rather than sending data at the same rate considering the fact that data will be lost...<BR>
I mean their is no point losing more amount of data by continuing to send data at the same rate when we know that packets are getting corrupted. <BR>
So I think its not much of a worry if sender reacts to a corruption like congestion for some cases atleast for the time being, till we find the reason for corruption and react accordingly.... Main point is to find the reason for corruption then react accordingly.<BR>
Any way link layer also has its recovery mechanism...<BR>
TCP fast retransmit can also sort this problem in some sense( not very much sure)...<BR>
<BR>
Kindly make me aware if their r some mistakes in my thoughts... :)<BR>
<BR>
Regards,<BR>
Sampad Mishra,<BR>
Project Assistant,<BR>
IISc,<BR>
India.<BR>
 <BR>
<BR>
<BR>

</P>
<br><br>
<A target="_blank" HREF="http://clients.rediff.com/signature/track_sig.asp"><IMG SRC="http://ads.rediff.com/RealMedia/ads/adstream_nx.cgi/www.rediffmail.com/inbox.htm@Bottom" BORDER=0 VSPACE=0 HSPACE=0></a>